Populärteknik
Övermänniskorna är här – på gott och ont
Människor har alltid längtat efter ledare som är bättre och klokare än vi, som inte hindras av mänskliga tillkortakommanden. Nu är övermänniskorna snart här – på gott och ont.
När Platon skrev ”Staten” för 2 300 år sedan drömde han om filosofiska kungar, uppfostrade under många år för att söka visdom, tänka rationellt och sluta upp med den småaktiga, mänskliga makthunger som präglade dåtidens politiker. Målet var att de som fattade besluten skulle vara något lite mer än människor, något bättre.
I takt med att självlärande program och artificiell intelligens blir bättre så är vi kanske på väg att få våra nya ledare. Big data som påverkar politiska kampanjer, sociala medier som driver väljare att gå i en viss riktning och insamlad information som gör att politiska budskap kan vässas och anpassas för olika väljare har diskuterats mycket under det senaste året. Men frågan om vad en ai, artificiell intelligens, kan göra för en redan sittande regering är minst lika intressant.
Den lilla önationen Singapore, känd för att snabbt ta till sig ny teknik, har redan installerat sitt teknologiska orakel. Projektet kallas för RAHS, Risk Assessment and Horizon Scanning. Det innehåller ett datorprogram som ständigt hämtar in och analyserar data från Singapore och resten av världen. Exakt vilken information som går in i programmet är hemligt, men det är mer än troligt att det mesta av vad landets invånare gör med sina datorer och mobiltelefoner fångas upp, tillsammans med film från tusentals övervakningskameror, ekonomiska transaktioner, trafikdata och antagligen det mesta annat som går att samla in.
Den enorma mängden data analyseras sedan av ett program som självt kan lära sig och utvecklas, precis som exempelvis de algoritmer som styr sökningarna i Google. Programmet letar efter mönster och trender, försöker förutsäga risker och upptäcka hot. När utvecklingen startade i början av 2000-talet var det tänkt att upptäcka potentiella terrorister. Inspirationen kom från ett liknande system i USA, det som Edward Snowden senare skulle komma att avslöja delar av.
Men nu har omfånget blivit mycket större. Genom att ständigt läsa av horisonten har programmet redan påverkat allt från vilka ämnen barnen i Singapore lär sig i skolan till infrastrukturprojekt, arbetskraftsinvandring, hälsosatsningar och statens ekonomiska investeringar. Det ska också upptäcka möjliga hot mot stabiliteten i den lilla nationen, förbereda möjliga sätt att agera om landet drabbas av en ekonomisk recession, en epidemi, en översvämning. Ett sätt att både förutsäga framtiden och att skapa den.
Singapore är inte bara ett samhälle som testar om massövervakning kan skydda mot terrorism, det är också ett enormt experiment för att se om artificiell intelligens kan konstruera ett bättre samhälle. Framtiden är oviss, människor är komplicerade, natten är mörk och fylld av fasor, så att ha tillgång till en sierska som kan ge vägledning och lysa upp mörkret blir närmast oemotståndligt.
Programmet kommer ur samma längtan, samma önskan som ständigt dyker upp när vi försöker lösa komplexa problem med teknik. Vi vill hitta något objektivt, något som är sant, ett system som har rätt och som inte brottas med de begränsningar som finns i våra våta, sörjiga hjärnor. En kombination av en förälder och en vis gudomlighet. Men vi är också akut medvetna om riskerna; de senaste decenniernas ständiga flöde av berättelser om hur superintelligenta robotar reser sig mot oss har sett till att även de mest teknikoptimistiska är på tårna. Ingen vill ha ett Skynet.
Maria Hedlund är forskare i statsvetenskap vid Lunds universitet. Hon har precis börjat ett projekt där hon tittar på hur EU och USA fattar beslut om lagstiftning kring ai.
– Jag är intresserad av demokrati och beslutsprocesser, och ai är intressant för att utvecklingen går så snabbt och det redan har blivit så stort. Det har inte hänt så mycket ännu, men det har kommit många initiativ om att man måste reglera innan det blir för sent, säger Maria Hedlund.
Enligt Maria Hedlund handlar förslagen om lagstiftning framför allt om hur medborgarnas integritet och fysiska säkerhet ska kunna skyddas efter hand som företag och myndigheter får tillgång till mer data och dessutom bättre algoritmer för att analysera den.
– Samtidigt kan jag se att man vill ha en reglering som också gagnar forskningen. Politiskt så ser man utvecklingen av artificiell intelligens som väldigt viktig, både EU och USA vill vara världsledande och satsa offensivt, säger hon.

Hennes forskning fokuserar på vilka som får vara med och fatta de besluten, vem som avgör hur en etisk reglering kan se ut. Men hon har också sett fler och fler resonemang om hur makthavare i EU och USA skulle kunna använda ai i sitt arbete.
– Jag har sett resonemang om att titta på möjligheterna att använda ai som hjälp för politiskt beslutsfattande. Det blir lite som ett orakel som kan svara på frågor, säger Maria Hedlund.
Det finns en risk i den gradvisa, vyssande, lugna tilliten som vi känner för programmen. Programmen som är riktigt bra, och som vi har kontroll över. Men som, trots allt, kommer att vara lika fyllda av fördomar och antaganden som vi är – eftersom det är vi som har programmerat dem. Algoritmerna som gradvis driver samhället i en viss riktning, oklart vilken, utan att någon någonsin fattat ett beslut om att det är dit vi ska. Inflytandet beror på hur mycket de som fattar besluten litar på systemet.
– Frågan är hur självständig en ai ska vara. Det är ju redan något som vi alla använder i vårt vardagliga liv hela tiden. Steget till att den också skulle fatta beslut är ett stort hopp. Men redan nu finns det ju tendenser åt det hållet, säger Maria Hedlund.
Vi använder ai redan nu för att fatta våra beslut, litar på Googles bedömning av när vi måste gå hemifrån för att komma till jobbet, förlitar oss på att Facebook ska visa oss om det har hänt något viktigt bland våra vänner. Dessa är naturligtvis verktyg, inte en självständig identitet som kan tänka eller fatta egna beslut. Men det är verktyg som det är lätt att luta sig tungt emot.
Samtidigt är det svårt att inte lockas av den rationalitet som skulle kunna vara möjlig om man började använda ai mer. Det testas redan som ett sätt att hjälpa läkare att ställa diagnoser, att hjälpa jurister att följa lagen.
Nudging, milda knuffar, är ett sätt att försiktigt påverka människor att fatta bättre beslut. Att göra trapporna mer attraktiva än hissen, att placera soptunnor så att man nästan inte kan låta bli att slänga skräpet i dem i stället för på marken. Valet att göra annorlunda finns fortfarande kvar, men det önskvärda alternativet är alltid lite lättare, lite smidigare. Olika sådana system används redan i många länder.
Att kombinera knuffarna med stora datamängder och artificiell intelligens skulle kunna göra dem ännu mer effektiva, få livet i en stad eller ett land att flyta ännu mer harmoniskt. Ett enkelt exempel är självkörande bilar. Ska de välja den väg som gör att passagerarna kommer snabbast fram eller den väg som gör att stadens trafikrytm flyter på bäst? Ska en medborgare som letar på nätet få information om den vårdcentral som ligger närmast eller den som just nu har lite färre besök? Och så vidare.
Kina verkar ha bestämt sig för att ta det här ett steg längre. Landet har presenterat ett förslag att införa en sorts personpoäng, ett socialt kreditvärde – varje medborgare får en siffra som påverkas av vilka beslut de tar, vilka människor de pratar med, vilka jobb de har och så vidare. Siffran påverkar i sin tur om de kan få lån eller visum för att besöka utlandet. Exakt hur systemet ska utformas eller fungera är fortfarande oklart, det finns gott om spekulationer men ont om faktisk information.
Den stora risken är nog inte en ond, medveten ai, som med berått mod tar makten över människorna och gör oss till slavar. Det är trots allt ett scenario som vi kan förstå, och bekämpa. Det som är läskigare, och kanske också troligare, är algoritmer som begränsar vår frihet, presenterar oss med färre valmöjligheter, nudgar oss att välja det som är det bästa för både oss och nationen, oavsett vad vi själva råkar känna för.
Kanske är det inte i Terminator som vi ska leta efter svar på hur vi ska hantera framtida hot utan i ”Sagan om den stora datamaskinen”, skriven av fysikern Hannes Alfvén och utgiven 1966. En berättelse om ett hyperrationellt övervakningssamhälle som överlämnar hela sitt beslutsfattande till datorer för att allt ska gå rätt och rättvist till. Eller kanske i Elizabeth Bears ”Carnival” från 2006, en miljödystopi med en ai som ser till att alla människor håller sig inom sina resursnivåer. Hur som helst får vi kanske vänta ett tag till innan vi kan lita på våra filosofiska kungar.