Javascript är avstängt eller blockerat i din webbläsare. Detta kan leda till att vissa delar av vår webbplats inte fungerar som de ska. Sätt på javascript för optimal funktionalitet och utseende.

Webbläsaren som du använder stöds inte av denna webbplats. Alla versioner av Internet Explorer stöds inte längre, av oss eller Microsoft (läs mer här: * https://www.microsoft.com/en-us/microsoft-365/windows/end-of-ie-support).

Var god och använd en modern webbläsare för att ta del av denna webbplats, som t.ex. nyaste versioner av Edge, Chrome, Firefox eller Safari osv.

AI kan både hjälpa och stjälpa förtroendet för vården

läkare tittar på röntgenplåt
Spelar det roll för patientupplevelsen om det är AI eller läkare som analyserat provsvaret? Det är en av flera frågor som forskare undersöker. Foto: Mostphotos.

Artificiell intelligens kan spara tid i läkarens arbete att ställa diagnoser vilka också blir träffsäkrare. Men läkaren bör också förstå och kunna förklara datorns beslut för patienten, annars kan tilliten äventyras, menar AI-forskaren Stefan Larsson. Med AI ställs vi också inför ett vägval: Vill vi spegla eller förändra världen?

Stefan Larsson är forskare vid Lunds tekniska högskola inom området teknik och social förändring och intresserar sig speciellt för hur autonoma, det vill säga självständiga och självlärande beslutssystem, påverkar samhället och individen.

När det gäller medicin väger forskare nytta med risker när AI ska upptäcka tumörer på digitala röntgenbilder, välja behandling vid akut bröstsmärta och dra slutsatser ur omfattande register om människors hälsa.  

Nyckelfrågor är tillförlitlighet, transparens, representativitet, ansvarsfördelning och tillit. Målet är att komplettera människans goda sidor med maskinens supersökförmågor. 

Transparens ökar chansen till tillit

En fråga som intresserar Stefan Larsson är tillit och människors upplevelser. Inte minst i vårdsektorn är tillit ett nyckelbegrepp.

– Hela upplägget bygger på tillit. Patienten, som ofta befinner sig i en väldigt svag och utsatt position, tillåter behandlingar och ingrepp som kan upplevas väldigt inkräktande och som utförs av personer som på grund av sin profession befinner sig i en stark position, säger Stefan Larsson.

Äventyras tilliten när verktygen successivt blir än mer svårbedömd för vanligt folk? Här pågår mycket forskning. Enligt Stefan Larsson behöver kanske inte varje patient förstå vad som ligger bakom varje datorgenererad rekommendation, men exakt hur information och beslutsfattande balanseras är en nyckelfråga för tillförlitlig AI-användning. 

– Transparens är ett nyckelelement i förtroendebyggandet. Vi försöker förstå var i processen det är viktigast med transparens, förklarbarhet i ett enskilt besluts motiv eller granskningsbarhet i hela systemet?

En risk är att underlaget blir skevt och missgynnar vissa grupper…

En annan återkommande fråga i dessa och andra projekt är partiskhet, eller ”social bias” som begreppet kommit att kallas. Medvetenheten om denna risk för systematisk snedvridning i relation till tillämpade AI-system och maskininlärning är förhållandevis ny, enligt Stefan Larsson.

Det var bara för fyra år sedan en amerikansk studie kom fram till att kommersiella mjukvaror för ansiktsigenkänning visade sig fungera mycket mer precist om ansiktet hörde till en vit man jämfört med en mörkhyad kvinna. 

En annan studie har visat att mjukvara för att upptäcka hudcancer fungerar bättre på ljus än mörk hy. En tredje har visat hur amerikanska domstolars användande av en riskbedömningsalgoritm på felaktiga grunder per automatik bedömde risken för återfallsförbrytelser vara högre bland afroamerikaner än vita amerikaner. 

– Policysvaret på denna typ av problem är ofta att efterlysa mer representativ data för alla typer av grupper. Det syns nu senast i EU-kommissionens förslag på AI-rättsakt och i rekommendationer från WHO. Frågan är dock när det är lösningen på problemet.

… å andra sidan finns risk för att rätt programmerad AI förstärker orättvisor

I takt med att program blir allt bättre på att spegla verkligheten någorlunda rättvisande uppstår nästa problem: Vill vi reproducera skevheter i samhället, även om de råkar vara korrekta? Vill vi ha riktade jobbannonser om högavlönade jobb till män som ju oftare söker högavlönade jobb och har högre lön? Konsekvensen av en korrekt spegling av sakernas tillstånd blir att AI inte bara speglar orättvisor, utan rentav riskerar att förstärka dem.

– Det är en fråga av en annan karaktär. Här kan det vara samhällsstrukturerna som är källan till problemet. Det ger en mer normativ fråga som inte säkert har någon teknisk eller optimerbar lösning inom räckhåll. 

Däremot har man blivit alltmer medveten om att kulturella och samhällsvetenskapliga behöver vävas in i ett tidigt skede.

– Det går inte längre att i slutfasen komma på att, ”just det, det vore bra med en etiker i projektet”. Det tycks krävas ett flervetenskapligt förhållningssätt för att bygga bra AI-produkter.

Foto Stefan Larsson: Sara Arnald

 

Stefan Larsson

Projekt om AI som Stefan Larsson deltar i:

Leder ett WASP-HS-projekt om AI-transparens och konsumenters tillit, och medverkar som forskare i i AIR Lund, ett registerforskningsbaserat AI-projekt som leds av Jonas Björk och Mattias Ohlsson. 

Här är han huvudhandledare åt Charlotte Högberg, doktorand i teknik och samhälle, LTH, i ett projekt om transparens och fairness i tillämpad AI. 

Tillsammans med Charlotte Högberg ska han även undersöka hur AI-understödd mammografiscreening upplevs av både patienter och radiologer i det s.k. MASAI-projektet vilket leds av Kristina Lång.

En av initiativtagarna till i AI Lund, ett universitetsövergripande forskarnätverk, som bland annat håller i en dag om AI i offentlig sektor på Internetdagarna den 22 november. https://internetdagarna.se/event/ai-i-offentlig-sektor-mojligheter-och-…

Stefan Larsson i Lunds universitets forskningsportal

Intresserad av forskning och samhälle?
Prenumerera på Apropå!
I nyhetsbrevet Apropå varvas senaste nytt från Lunds universitet med kommentarer till aktuella samhällshändelser från några av våra 5000 forskare.