Hur blir vi hackade år 2030? Experten reder ut

2020-01-16 06:00  

Hur blir vi hackade år 2030, och vilka nya hot kommer utvecklingen av artificiell intelligens och kvantdatorer föra med sig? Microsofts säkerhetschef Daniel Akenine pekar ut tre viktiga teknikområden för 2020-talet.

Artikelserie i fem delar om framtidens teknikskiften: Hur kommer vi att resa, äta och kommunicera 2030? Hur ser våra energisystem ut, och vilka it-hot väntar? Ny Teknik har frågat fem experter. Del 1: Anna Pernestål, fordonsforskare. Del 2: Mohammad Taherzadeh, professor. Del 3: Daniel Akenine, säkerhetschef Microsoft. Del 4: Johanna Lakso, Power Circle. Del 5: Magnus Frodigh, Ericsson.

Nya hot mot artificiell intelligens

Vi går mot en framtid där ai-mjukvara får allt större kontroll. Autonoma it-system ska köra våra bilar och ställa diagnoser medan fysiska robotar ska hjälpa äldre eller städa våra hem. Samtidigt uppstår ett nytt säkerhetsproblem: att se till att ingen medvetet försöker lura systemen att orsaka skada.

– Manipulation av ai-modeller är ett nytt hot som vi måste lära oss hantera, säger Daniel Akenine som är teknik- och säkerhetschef på Microsoft Sverige.

Det finns två tydliga sätt att manipulera artificiell intelligens som tränas upp med hjälp av maskininlärning. Det första tillfället kommer i inlärningen. En dedikerad sabotör skulle kunna plantera falska uppgifter i de data som används för att lära upp ett ai-system.

Läs mer: Han berättar historien om tidernas värsta cyberattack

En annan metod går ut på att lura en artificiell intelligens när systemet är implementerat. Ett känt exempel är när en grupp amerikanska forskare applicerade specialdesignade klistermärken på vägskyltar, och på det sättet kunde få självkörande bilar att ignorera eller feltolka exempelvis stoppskyltar.

– Sedan tror jag att vi i högre utsträckning kommer att ha robotar omkring oss 2030. Både i form av självkörande bilar, men också robotar som bäddar sängen, fixar saker i hemmet. Då blir fysisk säkerhet allt viktigare. Hur ser vi till att de här autonoma prylarna inte skadar oss oavsiktligt? säger Daniel Akenine.

Kvantdatorer och kvantnätverk

Än så länge har ingen lyckats bygga en funktionell kvantdator som kan lösa verkliga problem, men kapplöpningen pågår. Den dagen som en kvantdator med hög kapacitet blir verklighet kan många av dagens krypteringslösningar bli förlegade.

Säkerheten i asymmetrisk kryptering, som RSA, bygger på att det är för beräkningsintensivt för traditionella datorer att knäcka dem. Men en tillräckligt kraftfull kvantdator kan, tack vare superpositioneringen av kvantbitarna, lösa den typen av matematiska problem i en handvändning.

– I takt med att antalet stabila kvantbitar ökar kommer vi att se knäckningar av alltmer avancerade RSA-krypton. Då kommer folk att förstå att det bara är en tidsfråga innan vi måste byta ut dem, säger Daniel Akenine.

Microsofts säkerhetschef Daniel Akenine.

Därför måste utvecklingen av kvantsäkra krypteringsalternativ ta fart under det kommande årtiondet. Daniel Akenine menar dock att vi än så länge är så pass långt ifrån en funktionell kvantdator att det inte finns skäl till panik.

Undantaget är kommunikation som kan antas vara väldigt känslig även i tio år i framtiden. En aktör med stora resurser, som en statlig underrättelsetjänst, kan spara stora mängder krypterade data för att avkoda den dagen en funktionell kvantdator är verklighet.

– Om det är ett stort problem att den information du sänder i dag blir avkrypterad om tio år bör du försöka reflektera över det redan nu, säger Daniel Akenine.

Läs mer: Mafiaboy: ”Världen i dag är en hackares paradis”

Parallellt med utvecklingen av kvantdatorer sker en annan utveckling som tvärtom ger nya möjligheter att skydda känslig information. Kvantnätverk där ettor och nollor ersätts av kvantbitar, som är omöjliga att avlyssna i hemlighet.

– Det kommer att vara första gången man kan vara 100 procent säker mot avlyssning. Jag tror att utvecklingen av kvantnätverk kommer att gå snabbare än kvantdatorer, så 2030 är det inte alls orimligt att vi har den typen av helt säkra nätverk, och tekniken kan även översättas till att göra molntjänster säkrare.

Deepfakes blir bättre

Tekniken för att med hjälp av ai-teknik manipulera bild och ljud har tagit enorma kliv de senaste åren. Dessa så kallade deepfakes, där det exempelvis går att byta ut en persons ansikte i ett filmklipp, kommer de närmaste åren att bli bättre och allt svårare att skilja från verkligheten.

– Det blir en kapprustning mellan teknik för att detektera fejkade videor och teknik för att överlista sådana system, säger Daniel Akenine.

På sikt finns risk att vi tappar tron på att bild och ljud förmedlar en sanning, om ingen hittar en lösning. Sedan tidigare finns diskussioner om att använda exempelvis blockkedjeteknik för att verifiera att en viss film är äkta, och att den är inspelad på den plats och vid den tidpunkt som anges.

-Jag tror att vi i högre utsträckning kommer att använda verifierad media. Om SVT filmar en presskonferens kommer vi att ha teknik för att verifiera att filmen verkligen är autentisk. Att det är sann information, säger Daniel Akenine.

Simon Campanello

Kommentarer

Välkommen att säga din mening på Ny Teknik.

Principen för våra regler är enkel: visa respekt för de personer vi skriver om och andra läsare som kommenterar artiklarna. Alla kommentarer modereras efter publiceringen av Ny Teknik eller av oss anlitad personal.

  Kommentarer

Debatt