Staffan Larsson, professor i datalingvistik vid Göteborgs universitet och VD för Talkamatic.Foto: Magnus Aschan
AI-agenter du kan lita på – svensk professor löser ChatGPT:s största problem
Språkmodeller som ChatGPT hallucinerar och hittar på saker – ett problem som gör dem oanvändbara för säkerhetskritiska uppgifter. Nu har forskare vid Göteborgs universitet utvecklat en metod som garanterar att AI-agenter talar sanning. I senaste avsnittet av Teknikvisionärerna får du träffa en av dem, Staffan Larsson, professor i datalingvistik och VD för Talkamatic.
Teknikvisionärerna är en podcast från Ny Teknik Group som handlar om människor och företag i teknikens framkant.
När ChatGPT lanserades 2022 fick Staffan Larsson smått panik. Efter 25 år av forskning inom konversationell AI verkade hans livsverk plötsligt överflödigt.
– Första reaktionen blev okej, har vi något existensberättigande alls längre? Det var ju lite jobbigt, berättar han i podcasten Teknikvisionärerna.
Men snart insåg han att de stora språkmodellerna hade en fundamental brist, de hallucinerar och "hittar på" information utan att användaren kan veta när det händer.
– Man har liksom ingen kontroll över de här systemen och då insåg vi att det finns en enormt viktig niche vi kan fylla med vår lösning, säger Staffan Larsson.
Revolutionerande approach
Talkamatic, som Staffan Larsson grundade 2009 tillsammans med kollegan Fredrik Kronlid, har utvecklat en unik metod som i grunden handlar om tre delar: generera, kurera, publicera.
Teknikvisionärernas programledare och redaktör, Magnus Aschan.
Istället för att låta AI:n improvisera i realtid genererar systemet först en komplett dialog som en människa sedan granskar och godkänner. När dialogen väl är publicerad kan AI-agenten föra tusentals konversationer baserat på det i förväg godkända innehållet.
– Vi löser det fundamentala problemet med de här stora språkmodellerna, att de inte går att kontrollera, att de hallucinerar, förklarar Staffan Larsson i podcasten.
Säkerhetskritiska tillämpningar
Metoden öppnar upp helt nya marknader för AI-agenter, marknader som annars hade varit stängda på grund av just hallucinations-problemet.
– Om du vill göra något du verkligen tycker är viktigt, när det är centralt att det blir rätt och att systemet inte hittar på saker eller säger konstiga saker, då har du nytta av vårt system, säger Larsson.
Företaget siktar på chatbottar för säkerhetskritiska områden som medicinsk utbildning och flygteknik, där felaktig information kan få katastrofala konsekvenser.
Framtidens talande AI
Larsson beskriver sin approach som "chain of trust", en kedja av förtroende.
Du pratar med ett system, precis som med ChatGPT, men en människa har kontrollerat det. Det finns en kedja med kontrollmekanismer som gör att du kan lita på vad boten säger, menar han.
Staffan Larsson tror att talad dialog med AI bara är i sin linda.
– Rösten är ju det enklaste sättet i jättemånga sammanhang att interagera med datorer. Du sänker ju tröskeln för användning till noll. Jag tror helt klart röst är medium nummer ett för interaktion mellan människa och maskin i framtiden.
Samtidigt varnar han för övertro på AI-agenter som arbetar tillsammans utan mänsklig kontroll:
– Om du inte har löst hallucinationsproblemet så kommer det att bli viskleken. Hallucinationer kommer att fortplanta sig och bli större. Det är något vi vill lösa med vår produkt.
Lyssna in senaste avsnittet där poddar finns, eller klicka här!