ChatGPT visar vad ai kan göra – ”Blir svår att motstå”

Christian Landgren, vd för digitaliseringsbolaget Iteam. Han är redan en flitig användare av ChatGPT. Foto: Jörgen Appelgren, Openai och TT
Christian Landgren, vd för digitaliseringsbolaget Iteam. Han är redan en flitig användare av ChatGPT. Foto: Jörgen Appelgren, Openai och TT

Bland alla löften om artificiell intelligens de senaste åren känns något annorlunda med det explosionsartade intresset för ChatGPT. Som att många börjar inse vidden av vad som är på väg att ske. ”Våra hjärnor är inte anpassade för en sådan utvecklingstakt.” 

Publicerad

Vad är egentligen en robot?

I tv-serier, filmer och böcker som Westworld, A.I. – Artificiell intelligens och Klara och solen porträtteras människolika robotar som människornas tjänare.

Ai-modellen ChatGPT har sedan lanseringen i slutet av november blivit en sensation, och nådde en miljon användare på några dagar.

Men nu är det ett annat verk som associationerna går till. Filmen Her, regisserad av Spike Jonze, kretsar kring en intim relation mellan en man (spelad av Joaquin Phoenix) och hans virtuella assistent (vars röst tillhör Scarlett Johansson). 

Chatt-tjänsten ChatGPT är utvecklad av det amerikanska företaget Open AI. Den är inte anpassad för att ge personliga råd, men det har inte hindrat användare från att använda den som terapeut och rådgivare om djupt privata ämnen. Den går alltså att ”intervjua” och få resonerande svar av.

Ny Teknik gör det, och påtalar jämförelsen med filmen för ChatGPT. Då bedyrar språkmodellen av någon anledning att den aldrig kommer att få någon röst.

Det löftet lär garanterat inte infrias; man kan snarare föreställa sig en kapplöpning bland bolag och organisationer om att bli först med att erbjuda en personlig assistent av ChatGPT:s kaliber. 

– När vi når den punkt där alla har en liten box hemma – precis som i filmen Her – i vilken ai:n huserar, har sitt minne, kan läsa in alla dina datakällor och vet var du är, ja, då blir det ju en extremt personlig kontakt. Den kommer att vara svår att motstå, säger Christian Landgren, vd för digitaliseringsbolaget Iteam och redan flitig användare av ChatGPT.

För tillfället finns ett stort glapp mellan förmågan hos kommersiella virtuella assistenter som Google-assistenten, Amazons Alexa och Apples Siri. En bidragande orsak är att den teknik som Open AI har lanserat med språkmodeller som GPT-3 och ChatGPT gör det svårare att moderera innehållet.

Risken för att Open AI:s språkmodeller ger svar som kan uppfattas som stötande eller skadliga är fortsatt betydande. Men med tanke på det breda genomslaget för ChatGPT lär många konsumenter snart fråga sig varför deras röstassistenter inte kan hantera sammanhang och följdfrågor så flyhänt som Open AI:s chattverktyg. Med ChatGPT kan man till och med resonera fram och tillbaka om ett problem.

Modellen klarar mer än språk

Tekniken som får ChatGPT att fungera kallas ofta för stor språkmodell. Begreppet kan vara lite missvisande. För att bättre förstå att dess förmåga inte är begränsad till text skulle man kunna kalla metoden ”stor språk- och symbolmodell”.

Jo, ChatGPT kan hantera text på allehanda språk – inklusive svenska. Men en sådan typ av språkmodell kan också förstå exempelvis biologins språk och på så sätt förutspå hur proteiner veckas, som ai-bolaget Deepmind visat. Det räknas redan som ett av biologins största genombrott det här århundradet, nästan jämförbart med inducerade pluripotenta stamceller och genredigering – två framsteg som redan har lett till varsitt Nobelpris.

Stora språkmodeller bygger på en metod som kallas transformer. Tidigare ai-system jobbade fram ett resultat steg för steg. Den senaste sekvensen i sådana modeller tog bara hänsyn till sekvensen direkt före. 

Transformer-modeller ”fäster sin uppmärksamhet” på all inmatningsdata. De kan sägas vara globala i stället för lokala. Metoden fick sitt genombrott i en vetenskaplig artikel döpt till ”Attention is all you need” (”uppmärksamhet är allt du behöver”), skriven av ett antal Google-forskare 2017. 

När Ny Teknik frågade ChatGPT, i en artikel tidigare i veckan, om tekniken den bygger på svarade den bland annat: 

– Ja, jag är en transformermodell, så jag använder en ”attention mechanism” för att förstå text och generera svar. När en användare ställer en fråga till mig använder jag min ”attention mechanism” för att fokusera min uppmärksamhet på olika delar av frågan och den bakgrundskontext som jag har läst. Detta hjälper mig att förstå innebörden och sammanhanget i frågan.

Behöver stora beräkningsresurser

Nackdelen med en transformer är att den kräver enorma databearbetningsresurser initialt för att träna, vilket är ett skäl till att metoden har slagit igenom först nu. Open AI:s språkmodeller körs med stöd av Microsoft på kraftfulla datorer på Microsofts molnplattform, Azure. 

Fördelen är att den inte kräver märkt data (alltså sådan som en människa satt en etikett på och kategoriserat) och betraktas som ett självövervakande inlärningssystem. Den kan dessutom användas till olika uppgifter bara genom att serveras ett fåtal exempel. Forskare kallar det här ”few-shot learning”. ChatGPT är kanske det allra mest lysande exemplet hittills på ”few shot”. 

Ai-forskningen på det här området har exploderat sedan Google-forskarnas artikel för fem år sedan. En annan grupp av forskare, vid Stanfords universitet, har föreslagit att transformer-modeller ska kallas ”foundation models” för att de framstår som ett grundläggande fundament för artificiell intelligens.  

Både Alphabet-ägda Deepmind och Beijing Academy of Artificial Intelligence jobbar med ”multimodala” system som ska kunna användas i vitt skilda domäner. ”Samma nätverk … kan spela Atari, chatta, stapla block med en robotarm och mycket därtill. Sammanhanget avgör om nätverket ska framställa text, kombinera vridmoment eller trycka på knappar”, skriver Deepmind. Ny Teknik har tidigare berättat om hur Nvidia ska använda en typ av transformer-ai i framtidens autonoma fordon.

Bygger inte på öppen källkod

Trots alla milstolpar för artificiell intelligens de senaste tio åren känns något annorlunda med reaktionen på ChatGPT. Den är så enkel att använda, så omedelbart praktisk och – trots sina många brister – så övertygande att de surmagade kritiker som brukar ta över diskussionen då hajpen lagt sig inte riktigt hörs på samma sätt den här gången.

Det är som om många för första gången inser vidden av det många ai-forskare länge talat om. 

– Ofta är det så med exponentiell förändring. Våra hjärnor är inte anpassade för en sådan utvecklingstakt och då upplever man att det plötsligt bara smäller till. Att det går mycket snabbare än man är förberedd på, säger Christian Landgren.

Christian Landgren är en av föräldrarna bakom den Öppna skolplattformen. Foto: Samuel Unéus
Christian Landgren är en av föräldrarna bakom den Öppna skolplattformen. Foto: Samuel Unéus

Vilka är möjligheterna och riskerna med den här tekniken? 

– Den största risken är att man inte förberett sig på den här utvecklingen. Det finns också en risk med att sådan här teknik är kopplat till ett enskilt företag, och inte bygger på öppen källkod. Jag tror att öppen källkod är det enda hållbara sättet i förlängningen. 

Och möjligheterna? 

– Den skulle kunna hjälpa till i diplomatiska förhandlingar, hjälpa offentlig sektor, användas vid finansiell rådgivning, användas av författare … ja, det finns så otroligt många tillämpningsområden med ett generaliserat chattsystem. Jag tror också att Google kanske bör vara åtminstone lite rädda för ett alternativt sätt att inhämta inte bara kunskap, utan också kunna föra ett resonemang. Samtidigt bygger Googles sökresultat på data som en människa har skapat och validerat i någon mån. Resultaten från ChatGPT kan ju ibland vara påhittat. 

Den förstår programmeringsspråk också. 

– Ja, den kan hjälpa till att hitta buggar och lämna – ibland väldigt roliga – kommentarer. Jag har medarbetare som har skrattat högt på kontoret. Men det här kan leda till man använder sig av ai för att generera bättre ai. Då kan vi få en storleksordning till av exponentiell utveckling. 

En ai som behärskar svenska språket har tidigare mest känts som en hägring. Men ChatGPT klarar av det utan problem.

Christian Landgren tror att det beror på att ChatGPT – som bygger på vad Open AI kallar GPT-3.5 – har betydligt fler parametrar än föregångaren GPT-3 (Generative Pre-trained Transformer 3), som stoltserade med 175 miljarder parametrar.  

Det har spekulerats i att en eventuell uppföljare, en GPT-4, skulle kunna begåvas med uppemot 100 biljoner parametrar. Open AI, vars mål är att skapa en syntetisk generell intelligens med samma intellektuella förmåga som en människa, är av uppfattningen att ju fler parametrar, ju större modell, desto mer kapabelt blir ai-systemet. 

Utvecklingen har således bara börjat. Nästa år är det tio år sedan filmen Her hade premiär. Och för många börjar det gå upp hur nära vi är ett scenario som alldeles nyligen framstod som science fiction.