
I mitt förra inlägg skrev jag om AI och behov. Min slutsats var att väldigt få av våra mänskliga behov går att applicera på AI. Kanske att man kommer behöva definiera AIns behov utifrån dess egna parametrar den dag vi vet att den blir autonom och vi betraktar den som en egen livsform.
Men nästa punkt är det att ha ett mål. Vad är det att ha ett mål? Varför behöver vi ett mål? Kan AI ha ett mål? Låt mig börja vid vad det är att ha ett mål.
För att ha ett mål måste du ha något bakomliggande som får dig att handla mot det målet. Att handla på måfå är inte att ha ett mål. Men däremot kan du ju agera enligt någon annans mål. Här finns det en rad pågående diskussioner om vad AI kan användas till om den används till att göra skada. AI har i den diskussionen inget eget mål som den agerar i enlighet med, den skulle därmed inte heller kunna göra uppror mot något som den programmeras att göra.
Ta exemplet med en soldat i ett krig. En människa kan beordras att utföra uppgifter som går emot hens personliga principer. Hen kommer antagligen i de flesta fall göra det som den blir beordrad att göra i rädsla för vad som kan hända om hen inte gör det. Däremot kan hen välja att göra ett avsteg från det här, t.ex. skona en person som betraktas som fiende. Hen kan också välja att gå i motsatt riktning och göra värre saker än vad hen är ålagd att göra (t.ex. begå olika typer av krigsbrott). En stridsrobot programmerad med AI, skulle man troligen inte ha något intresse av att låta programmera för att kunna göra sånna avsteg. Kanske att den skulle bli bättre på att skona civila liv och begå färre krigsbrott pga detta, men hur ser incitamenten ut för att tillåta sådant?
Skulle en stridande AI kunna formulera helt egna mål är ju frågan vad den skulle hitta på. Det skulle potentiellt kunna skapa så stora skador att det aldrig går att reparera. Därför finns det stora incitament att inte utveckla AI mot det här hållet. Hoppas jag i alla fall!
Men trots att vi inte medvetet väljer att programmera AI mot det hållet finns det röster som oroar sig för att det kan ske av sig självt. Att vi har ett mål kopplar ju vi till att vi har ett behov (som jag skrev om i mitt förra inlägg) och därmed har vi en grund till vårt agerande som relaterar till vår i-världen-varo. Det som är självklart för oss och andra existenser är den gemensamma värld som förenar oss, men om nu AI kan utvecklas så långt att den får ett medvetande, blir en existens, så behöver det inte betyda att den har behov som liknar våra. Dessutom kan det hända att behoven ser vitt skilda ut beroende på vilken typ av AI som når den här nivån. En generativ språkmodell behöver nödvändigtvis ingen relation till den yttre världen, och inga behov i den världen. Men med tanke på att alla andra existenser rör sig i världen behöver den troligen kunna relatera till den yttre världen för att skydda sig själv och möta sina egna behov.
I nuläget behöver vi ju inte oroa oss för det här, men med tanke på att utvecklingen går otroligt snabbt tror jag inte det är omöjligt att vi inom några år börja se den här typen av agens om AI kan utvecklas åt det hållet.
I nästa inlägg kommer jag reflektera över AI och önskan.

Lämna en kommentar