Deras ai ska hjälpa polisen att hitta barnpornografi

2018-05-24 06:00  

När polisen utreder barnpornografibrott kan de behöva gå igenom miljontals filer. Nu lanserar Göteborgsbolaget Griffeye ett verktyg som hjälper dem att begränsa materialet.

Med stora mängder data kommer stora problem. I dag kan polisen manuellt tvingas gå igenom miljontals beslagtagna filer för att hitta var misstänkta förövare gömt barnpornografiskt material.

Ett tillslag mot personer som misstänks ha producerat eller distribuerat barnpornografi leder ofta till enorma beslag. Servrar, datorer och telefoner fulla av filer – och merparten av dem är förmodligen fullt legitima.

En tidskrävande syssla som i värsta fall kan försena eller omöjliggöra viktiga utredningar.

– I dag är det inte osannolikt att en barnpornografiutredare behöver gå igenom miljoner bilder och tusentals timmar video för ett enda ärende. Det är inte möjligt att göra på egen hand, säger Johann Hofmann som är chef för Göteborgsbolaget Griffeye.

Läs mer: Microsoft stoppar barnpornografi med svensk teknik

De utvecklar analysverktyg som används på runt 3.000 polismyndigheter världen över, och i dag lanserar de ett verktyg som kan hjälpa polisen att sålla i det enorma materialet som ingår i den här typen av utredningar.

– För det första är det extremt tidsödande arbete, för det andra är det stor risk att utredaren missar något viktigt och för det tredje är det extremt psykiskt påfrestande om det rör sig om barnpornografi, säger Johann Hofmann.

Griffeye använder ai-baserat analysverktyg

Griffeye har tagit fram ett ai-baserat analysverktyg som kan gå igenom stora mängder filer och hitta de som sannolikt innehåller sexuella övergrepp mot barn. Systemet klassificerar bilder och videor utifrån hur troligt det är att de innehåller barnpornografi, och presenterar sedan resultatet för utredaren.

– Om du kan plocka ut 10.000 filer från den ursprungliga miljonen har du kommit ett stort steg på vägen, säger Johann Hofmann.

Plötsligt är datamängden liten nog för att en människa kan börja gå igenom den.

Läs mer: Polisen nekas datatrafik i hälften av fallen

Tjänsten har utvecklats i samarbete med den australiensiska polisenheten Task Force Argos som har utrett brott som relaterar till barnpornografi på nätet sedan mitten av 1990-talet. Task Force Argos är ofta en viktig del av internationella tillslag mot distributörer och producenter, och sitter på ett enormt bibliotek av barnpornografiskt material som beslagtagits.

Griffeye har fått använda delar av det materialet för att finjustera sin algoritm till dess att den med stor träffsäkerhet kan identifiera misstänkt barnporr. Under flera månader har den i flera omgångar tränats på hundratusentals filer ur Task Force Argos arkiv.

– När ai:n var färdigtränad gjorde den fantastiskt bra ifrån sig. Rent historiskt var det nästintill omöjligt för en ai att se skillnad på normalt pornografiskt material och sådant som innehåller övergrepp på barn – och har de lyckats har processen varit alldeles för tidsödande för polisen. Men nu är vi där, säger Johann Hofmann.

Lena Larsson är tillförordnad gruppchef för polisens arbete med it-relaterade sexualbrott mot barn, och säger att verktyg som kan minska arbetsbördan kan ha stor nytta i utredningar som rör sexuella övergrepp mot barn. Men att hon inte haft möjlighet att testa Griffeyes ai-lösning ännu.

– Det vi jobbar på just nu är att frigöra tid till att identifiera förövare och framförallt de barn som råkar illa ut, istället för att bara sitta och titta igenom bilder. Då är naturligtvis ai-lösningar väldigt välkomna om de fungerar, säger Lena Larsson.

Netclean använder digitala fingeravtryck

Griffeye är något av en doldis i tekniksverige, men har en gedigen historia. Bolaget är sprunget ur Netclean, ett företag som gjort sig ett namn genom att ta fram en teknik för att hitta och stoppa barnpornografiskt material på arbetsplatser eller i publika nätverk.

Den tekniken bygger på att Netclean fått ta del av ett slags digitala fingeravtryck från barnpornografiskt material som konfiskerats och klassificerats av polisen.

Som ett sidospår utvecklade bolaget även en tjänst som polis kunde använda för att snabbt skanna igenom beslagtagna filer i jakt på videor och bilder som man sedan tidigare visste innehåller sexuella övergrepp mot barn, och hjälpa till att hitta nytt material.

2015 knoppades den delen av Netclean av till ett eget bolag som döptes till Griffeye. Sedan dess har verktyget för att analysera och hantera barnpornografiskt material utvecklats till en hel plattform av analysverktyg som kan användas för all form av polisutredning som rör filmer och bilder. I dag räknar man med att runt 8 000 utredare i världen använder Griffeyes produkter, däribland många hos den svenska polisen.

Bolaget tacklar hinder som utvecklingen innebär

Artificiell intelligens och maskininlärning är vardagsmat i dag, och bildigenkänning i stil med den som Griffeye nu tagit fram är ingen banbrytande teknik. Men det finns flera hinder med att utveckla den.

Inte minst när det är så känsligt material som ska analyseras. Bilderna och videorna som algoritmerna ska tränas på är olagligt att inneha och får inte behandlas utanför polisens egna premisser.

– All vår teknik måste kunna köras lokalt. Ingenting snurrar i någon form av molnlösning, säger Johann Hofmann.

Det betyder också problem när tjänsten väl ska användas. Algoritmerna måste vara tillräckligt lättviktiga för att snabbt kunna göra stora analyser med den begränsade beräkningskraft som finns i polisens egna datorer och servrar.


Safer Society Group

2015 bildades Safer Society Group som består av de tre bolagen Netclean, Griffeye och företaget Paliscope som utvecklar analysverktyg för open source intelligence.

Omsättning: 64,7 miljoner kronor (2017).

Antal anställda: 46 (2017) varav ett 20-tal arbetar med Griffeyes produkter.

Ort: Göteborg.

2010 var Netclean ett av bolagen på Ny Teknik och Affärsvärldens 33-lista över Sveriges mest innovativa teknikstartups.

Simon Campanello

Kommentarer

Välkommen att säga din mening på Ny Teknik.

Principen för våra regler är enkel: visa respekt för de personer vi skriver om och andra läsare som kommenterar artiklarna. Alla kommentarer modereras efter publiceringen av Ny Teknik eller av oss anlitad personal.

Här är reglerna för kommentarerna på NyTeknik

  Kommentarer

Dagens viktigaste nyheter

Aktuellt inom

Debatt