”Så måste etik byggas in från början i ai-applikationerna”

2021-05-17 09:16  
Josefin Rosén, ai-expert, Principal Advisor Analytics, SAS Institute Foto: SAS Institute

Det här är en debattartikel. Åsikterna som framförs är skribentens egna.

DEBATT. Etik är inte bara en check-box utan något som behöver genomsyra arbetet genom hela ai-applikationens livscykel, skriver Josefin Rosén på SAS Institute.

Det har gått några veckor sedan EU-kommissionen presenterade sitt lagförslag som ska ”göra Europa till ett globalt centrum för tillförlitlig artificiell intelligens”. Bemötandet är blandat där förvånansvärt många tycker att det är för strikta regler som föreslås. Man är rädd att regleringen ska hämma innovation och strypa ai-tillväxten.

Från EU-kommissionens håll understryker man att syftet inte är att bromsa eller försvåra ai-tillväxten och att man bara avser att reglera där det verkligen behövs, det vill säga när EU-medborgarnas säkerhet och grundläggande rättigheter hotas. Med de föreslagna reglerna och åtgärderna vill man skapa förutsättningar för en ai-utveckling som stödjer en positiv och ansvarsfull samhällsutveckling där medborgarna känner sig tryggare med ai, som i sin tur främjar ai-tillväxten.

I förslaget delar man in ai i fyra olika riskkategorierna – oacceptabel, hög, begränsad och låg risk. En utmaning med den föreslagna regleringen är att hitta en balans där oetisk utveckling som äventyrar rättssäkerhet förhindras, utan att man samtidigt hindrar innovation och utveckling. Genom att kategorisera ai-applikationerna utifrån olika risknivåer, kan man se till att områdena med lägst eller obefintlig risk, inte hämmas av ett försvårande regelverk. En annan utmaning ligger såklart i att implementera och säkra efterlevnad av lagarna i en värld med en gränslös digital trafik.

Arbetet med visioner och regelverk behöver ske parallellt med teknikutvecklingen. Det behövs ett tydligt ramverk som inbegriper etik och transparens i teknik och applikationer. Ett ramverk som spänner över människor, processer och teknologi. Funktionalitet för att kunna säkra en ansvarsfull användning av ai måste finnas i plattformen. Funktionalitet för att upptäcka och hantera bias i data och modeller, samt funktionalitet för att testa modellerna innan de sätts i bruk, och möjliggöra spårbarhet, hantering och övervakning av modeller och beslut över tid.

Det är även betydelsefullt för att ai-revisorer och granskare ska kunna bedöma kvaliteten i process, beslut och resultat.

Jag stöttar EU:s lagförslag till 100 procent och hoppas att det realiseras så fort som möjligt. Men det är bara början. Det är viktigt att de säkerhets- och integritetsfrämjande åtgärder som blir följden av lagförslaget inte ger flaskhalsar som hämmar innovation och utveckling där det tar allt för lång tid att produktionssätta ai.

De underliggande modellerna behöver vara tränade på data som reflekterar förutsättningarna där modellerna ska användas. Den verkligheten är inte statisk utan förändras och utvecklas över tid och rum. Om regelverket blir en flaskhals kommer vi se modeller som orsakar felaktiga beslut, där följden potentiellt kan bli att man inte längre vågar lita på resultaten, eller ännu värre, att man litar på dem när de inte är korrekta. Kontroll och styrning måste vävas in i arbetet på ett naturligt sätt och möjliggöras i de teknikplattformar och verktyg som används.

Får vi till detta på ett bra sätt kommer regelverket vara centralt inte bara för etik och ansvarsfullhet inom AI, utan även för innovations- och tillväxtdriven ai för samhället i stort och då har vi alla förutsättningar att bli ett ”globalt centrum för pålitlig artificiell intelligens”. 

Josefin Rosén, ai-expert, Principal Advisor Analytics, SAS Institute

Kommentarer

Välkommen att säga din mening på Ny Teknik.

Principen för våra regler är enkel: visa respekt för de personer vi skriver om och andra läsare som kommenterar artiklarna. Alla kommentarer modereras efter publiceringen av Ny Teknik eller av oss anlitad personal.

  Kommentarer

Dagens viktigaste nyheter

Debatt