Digitalisering
Nu har Googles ai lärt sig svenska

Googles artificiella intelligens har lärt sig svenska. Idag släpps den nya översättningstjänsten.
Det var sent ifjol som Google Translate – bara över en natt – plötsligt blev avsevärt mycket bättre. Tidigare hade sökjätten använt en frasbaserad metod de kallar statistisk maskinöversättning. Men i november 2016 ersatte Google den med en översättningstjänst, konstruerad med hjälp av ett djupt neuronnätverk, en form av artificiell intelligens.
– Med första versionen av det här gjorde vi större framsteg än alla framsteg vi gjort de tio senaste åren, sammanräknade, säger Barak Turovsky, en av Googles chefer på Translate-divisionen.
Förut använde Google en metod som gick ut på att översätta en fras – med en strikt begränsad uppsättning ord – åt gången. Fraserna översattes var och för sig, utan kännedom om innebörden i fraserna närmast före eller efter. Neuronnätverket studerar istället hela meningar. Det lär sig genom att kontinuerligt tränas med hjälp av stora mängder data.
– Förbättringen är markant. Inte bara vad gäller hur exakt översättningen blir, utan också att den låter mycket naturligare, säger Turovsky.
När Google rullade ut den nya tjänsten fanns bara åtta språk, men idag lanseras ytterligare ett 20-tal, däribland svenska. Den som prövar att översätta från svenska till japanska, eller från polska till svenska bör alltså märka en skillnad, eftersom neuronnätverket nu tränats på dessa tre.
Under året är planen att den nya tjänsten helt och hållet ska ersätta den gamla: många av de 103 språken som finns till Translate använder fortfarande den äldre modellen. Att det sker i etapper har bland annat med hårdvara att göra: neuronnätverk kräver sina processorer. För ändamålet har Google byggt så kallade tensorprocessorer, skräddarsydda för maskininlärning.
– De kräver en enorm mängd beräkningskraft. Våra tensorprocessorer använder mer beräkningskraft än den sammanlagda beräkningskraften hos resten av Google, säger Turovsky.
Att Google Translate blev bättre från en dag till en annan var resultatet av flera års forskning och utveckling på den division hos Google som heter Brain. Djupa neuronnätverk bygger på idéer som formulerades flera årtionden tidigare, men som fram till nu inte kunnat omsättas i praktiken eftersom det saknades både resurser och data.
Läs mer:
Men även om Google hade goda förhoppningar om att neuronnätverk skulle kunna förbättra översättningar har resultatet förbluffat även dem. Bland annat har de upptäckt att nya Translate kan översätta språk som inte tränats tillsammans. Om neuronnätverket tränats i en modell för engelska till svenska och i en annan för engelska till danska kan den sedan på egen hand lära sig att översätta svenska till danska.
– I det exemplet finns det alltså ingen modell, ingen data, för svenska till danska. Det lär sig från en annan modell.
Ytterligare en uppseendeväckande upptäckt är att språk från helt olika språkfamiljer kan köras tillsammans i neuronnätverkets träningsfas. Det är användbart om det saknas tillräckligt med data till något av språken.
– Förra månaden lanserade vi polska, vietnamesiska och thailändska. Det finns inte några språkliga likheter mellan dem. Men polska har mycket data att tillgå, till skillnad från vietnamesiska och thailändska.
Turovskys team lät neuronnätverket träna på de tre språken samtidigt, med gott resultat.
– Det var förbluffande. Det verkar som om det existerar ett interlingua, ett sorts ”pseudospråk”, som har likheter över alla språkfamiljer. Och maskiner är förmögna att fånga upp den signalen. Det var ett fantastiskt framsteg.
Uppdatering 21/4: Flera dagar efter Ny Tekniks samtal med Barak Turovsky hade Google fortfarande inte ändrat tjänsten för svenska från och till andra språk än engelska. Nu hälsar Google via sin svenska pressavdelning att de "tyvärr inte har information i dagsläget" när den äldre modellen byts ut.
Prenumerera på Ny Tekniks kostnadsfria nyhetsbrev!