Opinion
”Kunskap saknas för säker användning av ai i vården”
DEBATT. Teknikutvecklingen går så fort att när läkare examineras har kunskap redan blivit förlegad. Utbildning och träning saknas på alla nivåer, skriver tre professorer.
Avancerade mediciniska teknologier inom visualisering, simulering och artificiell intelligens (ai) skapar nya interaktioner mellan människa och maskin inom vården. Men utbildning och träning på alla nivåer släpar efter.
I dag är kunskapsökningen inom hälso- och sjukvården så snabb att när nyutexaminerade läkare genomfört sin specialistutbildning har mycket kunskap redan hunnit bli förlegad. Krafttag behövs, både för att säkra kvalitet och patientsäkerhet och för att dra nytta av möjligheterna som teknikutvecklingen skapar.
I en ny SNS-rapport identifierar vi ett antal förbättringsåtgärder för medicinsk utbildning för framtidens vård:
Reglera läkares fortbildning
Nya kunskaper, metoder och tekniker ersätter kontinuerligt gamla, vilket ställer krav på kompetensutveckling. Sverige är ett av få länder i Europa som inte har en reglerad fortbildning av specialister – trots de höga risker som finns inom vården. När man väl får sin specialistkompetens sker ingen kontroll av fortbildning eller återkommande recertifiering, vilket är vanligt i andra högriskyrken. Vi efterfrågar därför att läkarnas fortbildning regleras i en lag som säkerställer att ny teknik används på ett säkert, effektivt och evidensbaserat sätt.
Inför systematisk och kvalitetssäkrad träning med simuleringsteknik
Kliniska träningscenter som tillhandahåller simuleringsteknik börjar bli en etablerad och naturlig del av utbildningen och fortbildningen av sjukvårdspersonal. Det är mycket bra. Simulering är ett kraftfullt verktyg för träning i en kontrollerad miljö av såväl tekniska färdigheter, som samarbetsförmåga och lagarbete.
Det är dock nödvändigt att utbyggnaden av träningscenter samordnas nationellt för att på så vis få till optimalt resursutnyttjande och säkerställd kvalitet, till exempel med hjälp av den europeiska ackrediteringsorganisationen NASCE (Network of Accredited Clinical Skills Centre). Risken är annars stor för onödiga dubbelinvesteringar i dyr utrustning och bristfällig användning.
Utveckla artificiell intelligens på ett etiskt och kontrollerat sätt
Tillgången och tilltron till medicinska beslutsstöd baserade på ai ökar, trots att utbildning och fortbildning av de läkare som ska använda dessa är en bristvara. Den initialt restriktiva hållningen inom hälso- och sjukvårdssektorn genomgår nu en snabb expansion. Därför behövs utbildning, samt kritisk granskning och diskussion om de etiska implikationerna.
Vid konstruktion av algoritmer för beslutsstöd måste mätvärden och referenser definieras noga. Systematisk uppföljning av algoritmerna i nära samverkan med experter är nödvändig. Risker med partiskhet (bias) och skevhet (confounders) måste hanteras eftersom ursprunget till de data som ligger till grund för algoritmerna kan leda till felaktiga tolkningar.
Utifrån ett etiskt perspektiv är det nödvändigt med förståelse, insyn och transparens i de potentiellt självlärande och automatiserade beslutsstöden innan de kommersialiseras och skalas upp. Det måste också definieras vilken nivå av förklaring och transparens som krävs för att läkaren ska känna tillit och ställa sig bakom alltmer autonoma beslutsstöd.
Transparens är nödvändig för tillsyn av kommersiella ai-produkter för att dessa ska kunna få lämplig lärandefeedback, men också för att uppfylla samhällets behov av att fördela ansvar när produkterna leder till oönskade eller oväntade utfall. Ansvarsförhållandena måste klarläggas. Det får inte råda några tvivel om vem som ska bära ansvaret när ai används som en del i vården.
Diskutera balansen mellan tillgång till data och rätten till integritet
De stora datamängder som fordras för att utveckla ai borgar för värdekonflikter mellan reglering och lagar som skyddar integriteten och patienternas information – en viktig del i medicinsk etik – och den tillgång till stora mängder patientdata som utvecklingen av ai-verktyg behöver.
Hur stor hänsyn ska tas till patienterna när deras information lämnas ut för att träna ai? Det blir en krock mellan värdet av innovation och individuell integritet. Etik har alltid varit en central del av såväl medicinsk vetenskap som sjukvårdens praktik. Ett nytt kapitel behövs i relation till ny teknik och ai.
Li Felländer-Tsai, professor, överläkare i ortopedi, Karolinska Institutet och Karolinska Universitetssjukhuset
Annika Östman Wernerson, professor, överläkare i patologi, Karolinska Institutet och Karolinska Universitetssjukhuset
Anders Bergenfelz, professor, överläkare i kirurgi, Lunds universitet och Skånes Universitetssjukhus
Rapportens författare svarar för analys, slutsatser och förslag. SNS som organisation tar inte ställning till dessa.