Ledande forskare varnar för farorna i artificiell intelligens

2018-02-22 11:18  
Foto: Dino Fracchia / Alamy

Om morgondagens ai-teknik hamnar i fel händer kan det få ödesdigra konsekvenser. Det varnar en grupp ledande forskare i ett nytt manifest.

Samtidigt teknikbranschen pratar sig varma om möjligheterna med avancerad artificiell intelligens finns det gott om skeptiker som menar att en okontrollerad utveckling har stora risker.

Förra året samlades 26 forskare från flera ledande universitet i Oxford för att diskutera farorna i ohämmad artificiell intelligens som hamnar i fel händer. Nu har de publicerat resultatet, en 100 sidor lång uppmaning till försiktighet.

I rapporten går de igenom "potentiella säkerhetshot från ondsinta aktörer som använder ai-teknik och föreslår bättre metoder för att förutspå, förebygga och lindra dessa hot".

Det är en dyster genomgång av hur säkerhetsläget i världen kan förändras de närmaste åren.

De pratar om hur politisk propaganda kan skräddarsys och hur fejkade bilder och videoklipp snart kommer att vara omöjliga att skilja från verkliga. Ett ständigt aktuellt ämne i dessa dagar med nyheterna om den ryska inblandningen i det amerikanska valet och uppkomsten av så kallade deepfakes, porrfilmer där man med hjälp av ai-teknik bytt ut aktörernas ansikten mot kändisars.

Sedan kommer vi in på rena säkerhetshot mot människor. Om utvecklingen fortsätter som i dag, där alla nya tekniksprång inom ai snabbt blir brett tillgängliga, förutspår de en mörk framtid.

"Om de här trenderna fortsätter under de närmaste fem åren förväntar vi oss att angripares kapacitet att tillfoga skada med digitala system och robotar kommer att öka markant", skriver forskarna.

De spår att cyberattacker kan utföras på en allt större skala i takt med att ai kan automatisera processen. Arbetsintensiva angrepp som riktade phisingmejl kan snart utföras av ai.

Prognoserna blir än mer skrämmande när forskarna närmar sig fysiska tillämpningar på ai. Autonoma vapensystem som kan hackas, svärmar av attackdrönare kan användas mot motståndare och mord kan utföras genom att hacka och ta kontroll över exempelvis uppkopplade bilar eller smarta hem.

Forskarna bakom rapporterar manar flera grupper i samhället att ta sitt ansvar för att förhindra den här dystopiska visionen. Lagstiftare måste vara lyhörda för forskare, och både ingenjörer och forskarvärlden måste ta sitt ansvar för att inte förhindra att deras teknik används på skadligt vis.

Forskarnas fyra uppmaningar

Forskarna har fyra övergripande rekommendationer för att möta hotet från oreglerad artificiell intelligens.

1. Ett nära samarbete mellan lagstiftare och tekniska forskare för att förebygga att ai används på fel sätt.

2. Forskare och ingenjörer inom artificiell intelligens ska ta hänsyn till om deras arbete kan användas i ont uppsåt och vidta proaktiva åtgärder för att förhindra detta.

3. Ta "best practice"-metoder från it-säkerhet eller annan mer välbeprövad forskning och applicera på forskning om artificiell intelligens.

4. Försök att aktivt utöka antalet intressenter och experter som deltar i diskussioner kring utmaningarna inom artificiell intelligens.

Simon Campanello

Kommentarer

Välkommen att säga din mening på Ny Teknik.

Principen för våra regler är enkel: visa respekt för de personer vi skriver om och andra läsare som kommenterar artiklarna. Alla kommentarer modereras efter publiceringen av Ny Teknik eller av oss anlitad personal.

Här är reglerna för kommentarerna på NyTeknik

  Kommentarer

Aktuellt inom

Debatt