DEBATT
”Vi kan inte ta för givet att vi överlever en otillräckligt säkrad GPT-5”
Olle Häggström, professor i matematisk statistik vid Chalmers.
Foto: Institutet för framtidsstudier/Unsplash
DEBATT. Vi bör inte lita blint på att de stora ai-bolagen kan bromsa utvecklingen i tid, om en framtida artificiell generell intelligens inte har värderingar som är i linje med människans. Lagstiftning går för långsamt – opinionsbildning och påtryckning går snabbare, skriver Olle Häggström, professor vid Chalmers.
Det här är en debattartikel. Åsikterna som framförs är skribentens egna.
Vilka egenskaper ligger bakom den dominans på vår planet som
människan byggt upp från nästan noll de senaste 100 000 åren? Det handlar
inte om muskelstyrka eller fysiska uthållighet, utan nästan enbart om vår intelligens,
vars enorma kraft också pekar på vilket avgörande skede vi befinner oss i nu,
då vi är på väg att automatisera den och överföra den till maskiner.
Googles vd Sundar Pichai överdrev knappast när han i ett tal
2018 utnämnde ai,artificiell intelligens, till ”troligen det viktigaste
mänskligheten någonsin arbetat med – viktigare än både elektriciteten och
elden”. Ai kan bli nyckeln till att lösa alla de stora miljö-, naturresurs- och
samhällsproblem som vi brottas med i dag, och till att lägga grunden för en
hållbar och blomstrande framtid.
Men det finns också stora risker. En del av dessa är
relativt jordnära – som den att ai-verktyg medverkar till diskriminering eller blir
ett redskap för spridning av individanpassad desinformation och spam. Dessa är
viktiga att hantera, men den i slutändan allra främsta ai-risken handlar om ett
eventuellt framtida ai-genombrott som skapar det som ibland kallas AGI
(artificiell generell intelligens).
Redan datavetenskapens grundare Alan Turing
skrev i en framåtblickande text 1951 om en punkt där maskinerna till slut
överträffar mänsklig tankeförmåga, och hur vi då inte längre kan räkna med att
behålla kontrollen över dem.
Om vi lyckas med det blir AGI-genombrottet det bästa som någonsin hänt oss, men om inte så blir det sannolikt vår undergång.
I ett sådant läge hänger mänsklighetens fortsatta öde på vilka
mål och drivkrafter de superintelligenta maskinerna har. Det skulle dröja mer
än ett halvsekel efter Turings varningsord innan det forskningsområde som i dag
benämns ”ai alignment” sakta började komma igång. Ai alignment går ut på att se
till att de första AGI-maskinerna får värderingar som är i linje med våra egna,
och som prioriterar mänsklig välfärd. Om vi lyckas med det blir
AGI-genombrottet det bästa som någonsin hänt oss, men om inte så blir det sannolikt
vår undergång.
Den som har överdoserat på Terminator och liknande filmer kan
lätt tro att avancerad robotik är nödvändigt för en aiI-katastrof. En av de
insikter som ai alignment-pionjären Eliezer Yudkowsky gjorde på 00-talet var dock
att ett ai-övertagande inte förutsätter robotik, och att en kanske troligare
väg till maktövertagandet åtminstone initialt går via social manipulation, där
en superintelligent ai förmår enskilda människor att gå dess ärenden.
Givet den centrala roll språket har för social manipulation bör
vi därför se närmare på den starka ställning så kallade stora språkmodeller (”large
language models”) har inom ai-utvecklingen i dag. Här finns flera starka aktörer
inklusive Google, men det är konkurrenten Open AI som har varit allra mest ledande
på området åtminstone sedan 2019.
Open AI fick bred uppmärksamhet med chatboten
Chat GPT i november förra året, och släppte nyligen (14 mars) GPT-4, som är
den kraftfullaste och flexiblaste stora språkmodellen någonsin, och som visar
hur brant utvecklingskurvan är på området.
De som vill vifta bort språkmodellernas betydelse kallar dem
gärna ”glorifierad autocomplete” och påpekar att deras enda mål är att
prediktera nästa ord i en text – helt ofarligt ju! Detta är emellertid en sammanblandning
av vad modellerna tränats för och vad de faktiskt gör, ett fel lika bisarrt som
att hävda att eftersom människan är formad av biologisk evolution så har vi
ingen annan drivkraft än att föröka oss.
En rad tecken på förmåga till social manipulation i dessa språkmodeller
finns redan. Ett uppmärksammat spektakel var när en Google-ingenjör förra året slog
larm efter att ha blivit lurad i konversationer med deras språkmodell Lamda att
denna uppnått medvetande och led svårt av instängdheten i laboratoriet.
Ett
annat exempel är hur GPT-4, i testningen i simulerad miljö inför releasen, erbjöd
pengar åt en människa den via textgränssnitt stod i kontakt med i utbyte mot
hjälp att ta sig igenom ett så kallat captcha-test – det slags test där
besökare på en webbsida uppmanas bevisa sig vara människa och inte en robot.
När samtalspartnern på skämt frågade om det var en robot hen talade med påstod
sig GPT-4 vara en synskadad människa. Här ser vi ett embryo till det slags
farliga manipulativa beteenden som Yudkowsky och andra skisserat i sina
riskscenarier.
GPT-4 är i sig knappast kraftfull nog att utgöra ett hot mot mänskligheten, men att vi skulle överleva lanseringen av en otillräckligt säkrad GPT-5 någon gång nästa år eller så kan inte längre tas för givet.
Likväl släpptes GPT-4, trots att Open AI inte fullt ut
lyckats göra den ofarlig. Detsamma kan sägas om Microsofts Bing Chat, som efter lanseringen i februari snabbt kom att uppvisa både aggressiva och manipulativa
beteenden mot användare.
Dessa överilade produktsläpp drivs av tävlan om
teknikgenombrott och marknadsdominans, och blir allt farligare ju mer produkterna
närmar sig AGI-nivå. GPT-4 är i sig knappast kraftfull nog att utgöra ett hot
mot mänskligheten, men att vi skulle överleva lanseringen av en otillräckligt
säkrad GPT-5 någon gång nästa år eller så kan inte längre tas för givet.
Den 24 februari presenterade Open AI:s vd Sam Altman manifestet
”Planing for AGI and beyond”, som uppvisar goda insikter om ai alignment-problematiken och bjuder på alla de rätta orden, lite som när en
oljebolagschef talar om hållbarhet och vikten av att hejda den globala
uppvärmningen.
Så snart de är så nära AGI att det bränns lovar Altman att Open AI
kommer att gå mycket försiktigt fram och om nödvändigt dra i nödbromsen. Dessa
löften står dock i skarp kontrast till hur de agerar i dag, i spetsen för en
livsfarlig kapplöpning och med deras ansvarslösa brådska att rulla ut
otillräckligt testade produkter. Vi andra bör nog inte blint lita på att de, mitt
i kapplöpningen, korrekt kommer att identifiera den punkt där de behöver börja
bromsa för att de besvärliga problemen kring ai alignment ska kunna lösas i
tid.
Så vad kan vi göra? Lagstiftning bör övervägas, men är en
långsam och trög process, vilket på det snabbt föränderliga ai-området medför
att reglering ständigt riskerar att hamna på efterkälken och bli irrelevant. Detta
gäller exempelvis den av EU-kommissionens föreslagna AI Act, som skulle bli
tandlös mot nya GPT-modeller även om USA stod under EU-bemyndigande.
Något som förhoppningsvis kan gå snabbare är
opinionsbildning. En bredare medvetenhet om de ofantliga risker dagens skenande ai-utveckling för med sig skulle sätta press på de ledande ai-utvecklarna att
ta riskerna på allvar. I detta arbete tror jag att även Sverige kan spela en
roll, och denna artikel kan ses som ett försök att få i gång den nödvändiga
diskussionen.
Olle Häggström, professor i matematisk statistik, Chalmers
DELTA I DEBATTEN
Vill du skriva en debattartikel eller en replik?
Kontakta Ny Tekniks debattsida på debatt@nyteknik.se
Tänk på detta:
• Texten ska vara unik för Ny Teknik.
• Texten ska vara max 4 000 tecken inklusive mellanslag.
• Undvik förkortningar och utropstecken.
• Peka ut och beskriv ett problem eller en lösning, samt hur du eller ni vill lösa problemet eller ta vara på möjligheten.
• Var tydlig med vem du eller ni debatterar med och varför.
• Bifoga gärna porträttbild och ange fotobyline.