Säkerhet
Ledande forskare varnar för farorna i artificiell intelligens

Om morgondagens ai-teknik hamnar i fel händer kan det få ödesdigra konsekvenser. Det varnar en grupp ledande forskare i ett nytt manifest.
Samtidigt teknikbranschen pratar sig varma om möjligheterna med avancerad artificiell intelligens finns det gott om skeptiker som menar att en okontrollerad utveckling har stora risker.
Förra året samlades 26 forskare från flera ledande universitet i Oxford för att diskutera farorna i ohämmad artificiell intelligens som hamnar i fel händer. Nu har de publicerat resultatet, en 100 sidor lång uppmaning till försiktighet.
I rapporten går de igenom "potentiella säkerhetshot från ondsinta aktörer som använder ai-teknik och föreslår bättre metoder för att förutspå, förebygga och lindra dessa hot".
Det är en dyster genomgång av hur säkerhetsläget i världen kan förändras de närmaste åren.
De pratar om hur politisk propaganda kan skräddarsys och hur fejkade bilder och videoklipp snart kommer att vara omöjliga att skilja från verkliga. Ett ständigt aktuellt ämne i dessa dagar med nyheterna om den ryska inblandningen i det amerikanska valet och uppkomsten av så kallade deepfakes, porrfilmer där man med hjälp av ai-teknik bytt ut aktörernas ansikten mot kändisars.
Sedan kommer vi in på rena säkerhetshot mot människor. Om utvecklingen fortsätter som i dag, där alla nya tekniksprång inom ai snabbt blir brett tillgängliga, förutspår de en mörk framtid.
"Om de här trenderna fortsätter under de närmaste fem åren förväntar vi oss att angripares kapacitet att tillfoga skada med digitala system och robotar kommer att öka markant", skriver forskarna.
De spår att cyberattacker kan utföras på en allt större skala i takt med att ai kan automatisera processen. Arbetsintensiva angrepp som riktade phisingmejl kan snart utföras av ai.
Prognoserna blir än mer skrämmande när forskarna närmar sig fysiska tillämpningar på ai. Autonoma vapensystem som kan hackas, svärmar av attackdrönare kan användas mot motståndare och mord kan utföras genom att hacka och ta kontroll över exempelvis uppkopplade bilar eller smarta hem.
Forskarna bakom rapporterar manar flera grupper i samhället att ta sitt ansvar för att förhindra den här dystopiska visionen. Lagstiftare måste vara lyhörda för forskare, och både ingenjörer och forskarvärlden måste ta sitt ansvar för att inte förhindra att deras teknik används på skadligt vis.