Robotar behöver inte gilla oss - bara de kan låtsas

2016-02-17 14:34 Ada Fredelius  

KRÖNIKA. Den 4 augusti år 1997 uppnådde det militära datanätverket Skynet ett självständigt medvetande. När människorna insåg det försökte de stänga ner nätverket, men det var för sent.

Skynet försvarade sig mot mänskligheten med tre miljarder döda som följd. Sedan dess är datumet känt som domedagen. Eller? Vi som överlevt 1997 vet att filmen Terminator inte blev verklighet.

Terminator kommer ofta upp i diskussioner om artificiell intelligens. När vi tänker oss skräckvisioner av hur maskinerna tar över är det lätt att associera till rödögda mördarrobotar. När sedan tunga namn som Stephen Hawking och Elon Musk varnar för riskerna med AI är det lätt att börja planera sin överlevnadsbunker. (Glöm inte konservöppnaren!). Själv har jag fantiserat om huruvida det går att hårdkoda maskinerna att gilla oss.

Verkligheten är ofta mindre dramatisk än filmen. Under förra årets Nobel Dialogue hölls ett panelsamtal om riskerna med AI. Stuart Russell, professor i datavetenskap, deltog i samtalet och inledde med att avfärda just Terminator-scenariot. Att maskiner plötsligt skulle vakna till liv, hata människor och ha tillgång till en stor vapenarsenal är ingen större risk, enligt honom. Däremot kan det finnas en risk med hur en maskin som fått i uppdrag att lösa ett problem, och som har kapaciteten att själv undersöka olika sätt att göra det, agerar. Om man ger en maskin ett uppdrag, är det viktigt att veta hur ett sådant uppdrag definieras. Russell tar exemplet med en hushållsrobot som har i uppdrag att laga middag innan familjen kommer hem. Om kylskåpet är tomt ska roboten inte lösa problemet genom att tillaga katten.

Christian Smith, lektor på KTH:s centrum för autonoma system, berättar mer.

Skulle det vara en lösning på problemet med den kattkokande assistenten om den hade känslor? Skulle den kunna gilla katten? Nja, för att klara den uppgiften behöver den inte känna någon sympati för katten, säger Smith. Det räcker med att den förstår att människan blir missnöjd. Och där är vetenskapen redan en bit på väg. System för maskininlärning som behandlar stora mängder data och drar slutsatser finns. Utifrån ett sådant system skulle en dator kunna lära sig att klassificera en katt under kategorin ”inte ätbar”. Med det är komplext, även för oss människor. Exempelvis finns det kulturer där man äter just katt.

Christian Smith påpekar att vår föreställning om vad som är intelligens och medvetande gör det svårt att avgöra när en maskin är medveten – och därmed skulle kunna känna.

– Vi kan inte veta om en annan person är intelligent och har känslor som liknar våra. Men vi antar det. Så länge vi inte vet vad intelligens är hos oss själva, kan man fråga sig om vi kan definiera den hos en dator, säger han.

Efter att ha lyssnat på Christian Smith och forskarna på Nobel Dialogue känns hotet från en robotarmé mindre akut. Maskinerna kommer förmodligen inte att börja hata oss. Och med rätt programmering kan de bete sig som att de gillade oss. Eller åtminstone låta bli våra husdjur.

Kommentarer

Välkommen att säga din mening på Ny Teknik.

Principen för våra regler är enkel: visa respekt för de personer vi skriver om och andra läsare som kommenterar artiklarna. Alla kommentarer modereras efter publiceringen av Ny Teknik eller av oss anlitad personal.

Här är reglerna för kommentarerna på NyTeknik

  Kommentarer

Dagens viktigaste nyheter

Aktuellt inom

Senaste inom

Debatt