DEBATT

”Vi kan inte ta för givet att vi överlever en otillräckligt säkrad GPT-5”

Olle Häggström, professor i matematisk statistik vid Chalmers.

DEBATT. Vi bör inte lita blint på att de stora ai-bolagen kan bromsa utvecklingen i tid, om en framtida artificiell generell intelligens inte har värderingar som är i linje med människans. Lagstiftning går för långsamt – opinionsbildning och påtryckning går snabbare, skriver Olle Häggström, professor vid Chalmers.

Det här är en debattartikel. Åsikterna som framförs är skribentens egna.

Vilka egenskaper ligger bakom den dominans på vår planet som människan byggt upp från nästan noll de senaste 100 000 åren? Det handlar inte om muskelstyrka eller fysiska uthållighet, utan nästan enbart om vår intelligens, vars enorma kraft också pekar på vilket avgörande skede vi befinner oss i nu, då vi är på väg att automatisera den och överföra den till maskiner.

Googles vd Sundar Pichai överdrev knappast när han i ett tal 2018 utnämnde ai,artificiell intelligens, till ”troligen det viktigaste mänskligheten någonsin arbetat med – viktigare än både elektriciteten och elden”. Ai kan bli nyckeln till att lösa alla de stora miljö-, naturresurs- och samhällsproblem som vi brottas med i dag, och till att lägga grunden för en hållbar och blomstrande framtid.

Men det finns också stora risker. En del av dessa är relativt jordnära – som den att ai-verktyg medverkar till diskriminering eller blir ett redskap för spridning av individanpassad desinformation och spam. Dessa är viktiga att hantera, men den i slutändan allra främsta ai-risken handlar om ett eventuellt framtida ai-genombrott som skapar det som ibland kallas AGI (artificiell generell intelligens).

Redan datavetenskapens grundare Alan Turing skrev i en framåtblickande text 1951 om en punkt där maskinerna till slut överträffar mänsklig tankeförmåga, och hur vi då inte längre kan räkna med att behålla kontrollen över dem.

Om vi lyckas med det blir AGI-genombrottet det bästa som någonsin hänt oss, men om inte så blir det sannolikt vår undergång.

I ett sådant läge hänger mänsklighetens fortsatta öde på vilka mål och drivkrafter de superintelligenta maskinerna har. Det skulle dröja mer än ett halvsekel efter Turings varningsord innan det forskningsområde som i dag benämns ”ai alignment” sakta började komma igång. Ai alignment går ut på att se till att de första AGI-maskinerna får värderingar som är i linje med våra egna, och som prioriterar mänsklig välfärd. Om vi lyckas med det blir AGI-genombrottet det bästa som någonsin hänt oss, men om inte så blir det sannolikt vår undergång.

Den som har överdoserat på Terminator och liknande filmer kan lätt tro att avancerad robotik är nödvändigt för en aiI-katastrof. En av de insikter som ai alignment-pionjären Eliezer Yudkowsky gjorde på 00-talet var dock att ett ai-övertagande inte förutsätter robotik, och att en kanske troligare väg till maktövertagandet åtminstone initialt går via social manipulation, där en superintelligent ai förmår enskilda människor att gå dess ärenden.

Givet den centrala roll språket har för social manipulation bör vi därför se närmare på den starka ställning så kallade stora språkmodeller (”large language models”) har inom ai-utvecklingen i dag. Här finns flera starka aktörer inklusive Google, men det är konkurrenten Open AI som har varit allra mest ledande på området åtminstone sedan 2019.

Open AI fick bred uppmärksamhet med chatboten Chat GPT i november förra året, och släppte nyligen (14 mars) GPT-4, som är den kraftfullaste och flexiblaste stora språkmodellen någonsin, och som visar hur brant utvecklingskurvan är på området.

De som vill vifta bort språkmodellernas betydelse kallar dem gärna ”glorifierad autocomplete” och påpekar att deras enda mål är att prediktera nästa ord i en text – helt ofarligt ju! Detta är emellertid en sammanblandning av vad modellerna tränats för och vad de faktiskt gör, ett fel lika bisarrt som att hävda att eftersom människan är formad av biologisk evolution så har vi ingen annan drivkraft än att föröka oss.

En rad tecken på förmåga till social manipulation i dessa språkmodeller finns redan. Ett uppmärksammat spektakel var när en Google-ingenjör förra året slog larm efter att ha blivit lurad i konversationer med deras språkmodell Lamda att denna uppnått medvetande och led svårt av instängdheten i laboratoriet.

Ett annat exempel är hur GPT-4, i testningen i simulerad miljö inför releasen, erbjöd pengar åt en människa den via textgränssnitt stod i kontakt med i utbyte mot hjälp att ta sig igenom ett så kallat captcha-test – det slags test där besökare på en webbsida uppmanas bevisa sig vara människa och inte en robot. När samtalspartnern på skämt frågade om det var en robot hen talade med påstod sig GPT-4 vara en synskadad människa. Här ser vi ett embryo till det slags farliga manipulativa beteenden som Yudkowsky och andra skisserat i sina riskscenarier.

GPT-4 är i sig knappast kraftfull nog att utgöra ett hot mot mänskligheten, men att vi skulle överleva lanseringen av en otillräckligt säkrad GPT-5 någon gång nästa år eller så kan inte längre tas för givet.

Likväl släpptes GPT-4, trots att Open AI inte fullt ut lyckats göra den ofarlig. Detsamma kan sägas om Microsofts Bing Chat, som efter lanseringen i februari snabbt kom att uppvisa både aggressiva och manipulativa beteenden mot användare.

Dessa överilade produktsläpp drivs av tävlan om teknikgenombrott och marknadsdominans, och blir allt farligare ju mer produkterna närmar sig AGI-nivå. GPT-4 är i sig knappast kraftfull nog att utgöra ett hot mot mänskligheten, men att vi skulle överleva lanseringen av en otillräckligt säkrad GPT-5 någon gång nästa år eller så kan inte längre tas för givet.

Den 24 februari presenterade Open AI:s vd Sam Altman manifestet ”Planing for AGI and beyond”, som uppvisar goda insikter om ai alignment-problematiken och bjuder på alla de rätta orden, lite som när en oljebolagschef talar om hållbarhet och vikten av att hejda den globala uppvärmningen.

Så snart de är så nära AGI att det bränns lovar Altman att Open AI kommer att gå mycket försiktigt fram och om nödvändigt dra i nödbromsen. Dessa löften står dock i skarp kontrast till hur de agerar i dag, i spetsen för en livsfarlig kapplöpning och med deras ansvarslösa brådska att rulla ut otillräckligt testade produkter. Vi andra bör nog inte blint lita på att de, mitt i kapplöpningen, korrekt kommer att identifiera den punkt där de behöver börja bromsa för att de besvärliga problemen kring ai alignment ska kunna lösas i tid.

Så vad kan vi göra? Lagstiftning bör övervägas, men är en långsam och trög process, vilket på det snabbt föränderliga ai-området medför att reglering ständigt riskerar att hamna på efterkälken och bli irrelevant. Detta gäller exempelvis den av EU-kommissionens föreslagna AI Act, som skulle bli tandlös mot nya GPT-modeller även om USA stod under EU-bemyndigande.

Något som förhoppningsvis kan gå snabbare är opinionsbildning. En bredare medvetenhet om de ofantliga risker dagens skenande ai-utveckling för med sig skulle sätta press på de ledande ai-utvecklarna att ta riskerna på allvar. I detta arbete tror jag att även Sverige kan spela en roll, och denna artikel kan ses som ett försök att få i gång den nödvändiga diskussionen.

Olle Häggström, professor i matematisk statistik, Chalmers

DELTA I DEBATTEN

Vill du skriva en debattartikel eller en replik?

Kontakta Ny Tekniks debattsida på debatt@nyteknik.se

Tänk på detta:

• Texten ska vara unik för Ny Teknik.

• Texten ska vara max 4 000 tecken inklusive mellanslag.

• Undvik förkortningar och utropstecken.

• Peka ut och beskriv ett problem eller en lösning, samt hur du eller ni vill lösa problemet eller ta vara på möjligheten.

• Var tydlig med vem du eller ni debatterar med och varför.

• Bifoga gärna porträttbild och ange fotobyline.