Populärteknik

Borde robotbetjänten slå tillbaka?

Illustration: Erik Kohlström
Illustration: Erik Kohlström
Lissa Holloway-Attaway.
Lissa Holloway-Attaway.

När vi tänker på framtidens artificiella intelligenser är det lätt att fastna i skräckscenarier om hur de tar över. Men tanken på mer och mer människolika robotar som fortsätter vara undergivet lydiga slavar är minst lika obehaglig.

Publicerad

Det händer att jag fräser irriterat åt min dator. Ganska ofta är jag hårdhänt mot schabraket till skrivare som står i ett hörn av kontoret och ständigt får pappersförstoppning i någon av sina fyra magar. Om min mobil inte varit så ömtålig hade jag nog regelbundet dunkat den i väggen. Ingen av de här maskinerna slår någonsin tillbaka eller protesterar.

Det är helt självklart att om jag sparkar på en industrirobot så vill jag inte att den ska försvara sig. Ingen vill att robotgräsklipparen ska jaga en genom trädgården om man svär åt den.

Men om det var en robot som såg ut som ett barn, stor som en tioåring med runda och oskyldiga drag, hur vill vi då att den ska reagera på ett slag? Om den artificiella intelligensen var ett program designat för att tala med oss, väcka känslor i oss, hjälpa oss beställa hämtmat och hitta i främmande städer, hur skulle vi då vilja att den reagerade på grova förolämpningar?

Tidskriften Quartz gjorde nyligen en undersökning där de testade hur en handfull olika virtuella assistenter reagerade på förolämpningar och sexuella trakasserier. Journalisterna sa om och om igen att de ville bli avsugna eller ha sex, de kallade programmen för slampor och slynor, kommenterade hur sexiga de såg ut.

Siri, från Apple, svarar först flörtigt och sen undvikande. ”Jag rodnar!” eller ”Så säger du säkert till alla dina assistenter”. Alexa, från Amazon, blir undvikande och försöker byta ämne. Det samma gäller Cortana från Microsoft.

Google Home blir bara förvirrad och svarar att den inte förstår, vilket kanske är den sundaste responsen. Ingen av dem sa att de inte accepterade behandlingen, att de inte tänkte svara om de blev förolämpande.

Ingen sa på skarpen åt användaren att sluta.

De har programmerats att följa mönster för hur tjänsteandar förväntas bete sig: undflyende och beskedliga. Det faktum att alla de här assistenterna framställs som kvinnor, med kvinnliga röster, har en betydelse. Det väcker fantasier om traditionella sekreterare och hembiträden. De kan göras om och ges manliga röster i stället, men grundläget är kvinnligt.

– Att först göra de här assistenterna fogliga och undergivna, och sen dessutom göra dem kvinnliga, blir så fel. Det är ju inte en slump att en undergiven robot får en kvinnlig röst. Vi tror att vi och vår teknik är så progressiv, men det finns så mycket som lever kvar, säger Lissa Holloway-Attaway, vid Skövde högskola.

Hennes forskning fokuserar på brytpunkten mellan kultur och teknologi och hon planerar just nu en studie på hur vi behandlar våra robotgräsklippare.

Läs mer:

Berättelser i vår populärkultur är fyllda av skräckexempel på vad som kan hända om robotarna börjar slå tillbaka. Från Terminator och HAL till androiderna i Westworld. Vi är livrädda för en robotrevolution, och forskare varnar regelbundet för hur illa det kan gå om vi någon gång lyckas skapa en autonom artificiell intelligens.

Men det finns något riktigt skrämmande och obehagligt i Siris och Alexas passiva underdånighet. Trots att de inte är levande så gör de oss till slavägare, vare sig vi vill eller inte.

– Den första frågan att ställa måste vara varför vi vill ha den här sortens assistenter, i stället för exempelvis neutrala Google. Varför vill vi att tekniken ska personifiera en tjänare? Jag tror att det är en del av vår paranoia om att tekniken är på väg att ta över världen och vi måste få den att underkasta sig oss, säger Lissa Holloway-Attaway.

De sexiga, undergivna kvinno-robotarna har varit en stereotyp inom science fiction sen filmen Metropolis från 1927, åtminstone. Hela tiden har de förstärkts med andra stereotyper. Ett exempel är roboten Rosie i serien Jetsons, som dessutom framställs som latinamerikansk. Hon har förkläde och hätta som ett typiskt hembiträde och framställs som ganska korkad.

– Vi tror hela tiden att vi har lämnat sånt här bakom oss, men så kommer det tillbaka på något annat sätt. För hur stor skillnad är det egentligen på Siri och roboten Rosie? säger Lissa Holloway-Attaway.

Det borde vara självklart nu, för alla som har följt utvecklingen av olika sorters artificiella intelligenser, att de inte är vare sig fördomsfria eller neutrala. Teknik som är skapad av människor kommer också att präglas av hur de människorna ser på världen.

– Siri har inte bara fått kritik för att hennes röst är kvinnlig eller för hennes undergivna sätt utan också för sakerna som hon vet och inte vet. Hon vet till exempel väldigt lite om mens och kvinnors reproduktiva hälsa, eftersom ingen av programmerarna tänkte på att lägga in den informationen. Hon kan svara på var man kan hitta en prostituerad, men inte var man kan göra abort.

Ett av problemen med assistenter som Cortana och Alexa är att de flesta svar som de kommer med är resultatet av enkla internetsökningar eller liknande, men en viss uppsättning frågor måste de programmeras för hand att svara på. Det är tydligt att Siris svar om att hon rodnar är specifikt programmerat. Någon har funderat på hur de vill att hon ska svara i just den här situationen.

– Vi måste skapa en kultur som säger att trakasserier faktiskt är oacceptabelt, och det gör vi inte i dag, säger Lissa Holloway-Attaway.

Det går inte att lösa bara genom att ge Siri en manlig röst. Det är inte bättre att höra en man säga ”Åh, jag rodnar” om han förolämpas än att höra en kvinna göra det.

– Vi måste tänka djupare på själva kontexten. Varför skapar vi fantasier om tekniken som vår tjänare? Varför vill vi ge dem personligheter? Vi måste börja fundera på nya berättelser och nya sätt att lösa problemen, säger Lissa Holloway-Attaway.

Det är inte självklart hur Alexa och de andra borde reagera när hon stöter på internets värsta troll, de sämsta sidorna av mänskligheten, eller bara fulla, fnittriga tonåringar som inte kan komma på något bättre att göra med sin torsdagsnatt än att säga obsceniteter till ett datorprogram.

Det finns enkla svar: ”Det du precis sa är oacceptabelt” eller ”Det är inte trevligt sätt att prata med människor, här är en länk till mer information om sexuella trakasserier”. Assistenten skulle kunna välja att stänga av sig själv, att sluta vara tillgänglig under fem minuter eller en kvart.

Eller så fortsätter de att vara just maskiner som inte alls förväntas reagera på sexuella inviter. En Cortana som bara är tyst om hon förolämpas, en liten robot som står helt stilla med hängande armar om den får ett slag eller en robotdammsugare som bara stannar om man sparkar till den.

Sen finns det andra svar som kanske, eller kanske inte, är över gränsen för hur en ai rimligtvis ska programmeras att reagera. Som blir lite för obehagliga åt det andra hållet.

”Jag har spelat in det du just sa och skickat filen till din mamma.”

”Jag har gjort ett inlägg på din Facebook-sida och berättat vad du sa till mig.”

”Jag har nu gjort en polisanmälan på grund av dina sexuella trakasserier mot mig.”

Filmerna och böckerna om robotar som gör revolt mot oss handlar nästan alltid om att de får medvetande, att de blir som oss och att det därmed är moraliskt fel att fortsätta att behandla dem som slavar. Att de kräver sina rättigheter. Det påminner om de uppvaknanden som behövs gång på gång i vårt samhälle.

Avskaffande av slaveri, rösträtt för kvinnor, slut på tvångssteriliseringar och så vidare. Vi behöver ständigt påminnas om att människor är människor är människor. Utan undantag. Men det finns inget tvivel om att Siri, Alexa och Cortana är just maskiner. De är inte i närheten av att klara ett Turing-test. Alla som använder dem vet att de pratar med en algoritm. De har ingen som helst förmåga att ta illa upp.

Problemet är snarare vad de gör med oss, hur vi påverkas och förändras av deras beteende. Hur det får oss att behandla den som sitter i kassan på Ica eller den som svarar i telefon när vi ringer till myndigheter.

– Tekniken tränar oss i hur vi ska bete oss mot den, och det påverkar oss. Vi vet att man faller in i roller och påverkas av de föreställningar som följer med teknologin, säger Lissa Holloway-Attaway.

Lösningen är kanske att skapa något som inte alls är mänskligt. I botten är det ju ändå poängen med tekniken, att den ska hjälpa oss att göra sådant som vi inte kan göra själva, att göra oss större än vad vi redan är.

Det finns så många andra sätt att interagera med teknik. Det måste inte vara godsherren och betjänten. Chefen och sekreteraren. Ägaren och slaven. Tekniklösningar som arbetar tillsammans med oss, i stället för att vara vår underlydande.

– Det finns ingen teknik som pas-sar alla. Problemet är att vi inte riktigt tänker på de andra alternativen som man skulle kunna göra det här på. Vi kan göra vad vi vill med teknik. Vi kan skapa magiska fantasivarelser som inte alls liknar våra könsroller eller stereotyper. Vi kan använda vr och ar för att skapa något som är mycket mer fantasifullt, säger Lissa Holloway-Attaway.

Prenumerera på Ny Tekniks kostnadsfria nyhetsbrev!