Innovation
Elon Musk-bolagets AI skrämmer upphovsmakarna

Av rädsla för de potentiella konsekvenserna har Open AI valt att inte lansera sin nya textgenerator. Resultaten är helt enkelt för bra.
Elon Musk har kallat artificiell intelligens det största existentiella hotet mot mänskligheten. Det var också skälet till att han 2015 grundade det ideella forskningsbolaget Open AI. Han ville, som han uttryckte det, ”hålla koll på vad som händer med ai”.
Som namnet antyder brukar Open AI sprida sin källkod på webbtjänster som Github, så att andra kan ta del av den. Men nu har de gjort ett undantag.
”På grund av vår rädsla för illasinnad användning av tekniken, släpper vi inte den tränade modellen”, skriver Open AI-forskarna på den egna bloggen. De har dock släppt en begränsad version av modellen, så att andra kan ta del av den i forskningssyfte.
Ai-modellen Open AI har skapat är en textgenerator som bygger på djup maskininlärning. Utifrån en eller ett par av en människa skrivna fraser kan textgeneratorn sedan fortsätta på egen hand.
Tidningen The Guardian gav den till exempel ett par rader från en av deras artiklar om Brexit och premiärministern Theresa May, varpå den artificiella intelligensen spottade ut följande: ”ombedd att förtydliga uppgifterna, svarade en talesperson för May: premiärministern har varit väldigt tydlig med att hennes avsikt är att lämna EU så fort som möjligt och att det sker med stöd av förhandlingsutrymmet så som bekräftat vid drottningens tal förra veckan”.
För den som är bekant med nyhetsprosa i allmänhet och The Guardian i synnerhet skulle det i princip vara omöjligt att utan förhandskunskap lista ut att en maskin fabricerat texten. ”Modellen är som en kameleont: den anpassar sig till stilen och innehållet i den ursprungliga texten”, skriver forskningsbolaget.
Träningsdata ger bättre resultat
Open AI kallar sin textgenerator GPT-2 och den bygger på en transformer-baserad variant av djup maskininlärning. Transformer är en relativt ny ai-modell som anses vara extra lämplig för just språkbearbetning, men togs också i bruk när Deepminds ai nyligen vann flera matcher mot professionella spelare i realtidsstrategispelet Starcraft II.
Alla ai-modeller som bygger på djup maskininlärning behöver så kallad träningsdata för att, i bästa fall, kunna mata ut resultat som liknar det upphovsmakaren tänkt sig. Mängden träningsdata, och kvaliteten på den, ger i regel bättre resultat. Och GPT-2 tycks vara en ovanligt stor modell, med 1,5 miljarder parametrar som tränats på en datamängd om åtta miljoner webbsidor.
Ai med brett språkförråd
Det kanske mest slående med resultatet är att ai-modellen uppvisar en viss förmåga till generalisering. Det är annars vanligt att artificiell intelligens kan bemästra en smal domän, bara för att vara helt oanvändbar i en annan. ”GPT-2 presterar bättre än andra språkmodeller som tränats på specifika domäner utan behov av domänspecifik träningsdata. När det gäller språkuppgifter som att svara på frågor, läsförståelse, summering och översättning så lär sig GPT-2 dessa uppgifter utifrån råtext, utan att använda målspecifik träningsdata”, skriver Open AI-forskarna.
Bolaget poängterar att modellen inte alltid presterar, men dess högstanivå anses alltså vara tillräckligt för att vidta försiktighetsåtgärder. Open AI skriver att en illasinnad aktör bland annat skulle kunna generera missvisande nyhetsartiklar, utge sig för att vara någon annan eller automatisera produktion av falskt innehåll.
Men samtidigt hyser de hopp om att den kan användas till gott. Bättre röstförståelsesystem, effektivare modeller för översättning mellan språk och mer kapabla dialogagenter är några möjliga tillämpningar.