Webbläsaren som du använder stöds inte av denna webbplats. Alla versioner av Internet Explorer stöds inte längre, av oss eller Microsoft (läs mer här: * https://www.microsoft.com/en-us/microsoft-365/windows/end-of-ie-support).

Var god och använd en modern webbläsare för att ta del av denna webbplats, som t.ex. nyaste versioner av Edge, Chrome, Firefox eller Safari osv.

Lundaforskare om riskerna med artificiell intelligens

Teamwork Mostphotos

”AI skrämmer ihjäl mig”. Superentreprenören Elon Musks ord när han talade på teknik- och kulturfestivalen i Austin i veckan. Nu har etikgruppen som ger råd åt Europeiska kommissionen kommit med riktlinjer för utvecklingen av artificiell intelligens. Etikprofessorn Nils- Eric Sahlin är en av ledamöterna.

Elon Musk menar att AI är ett extremt hot mot mänskligheten, farligare än kärnvapen, men ändå oreglerat. Kan du förstå hans rädsla?
- Han är inte den ende som uttryckt sin rädsla och jag förstår honom helt och fullt. I det yttrande som vi i Europeiska kommissionens etikgrupp publicerade i förra veckan om robotar och AI tar vi upp en rad viktiga etiska frågor men betonar särskilt en sak, och det är meningsfull mänsklig kontroll. Vi måste alltid se till att vi har kontroll över systemen. Det vore oansvarigt och omoraliskt att låta våra skapelser göra vad de vill. Dessa system, vare sig det rör sig om hälsorobotar, utbildningsrobotar eller krigsmaskiner, måste stå under mänsklig kontroll. Detta är ju bland annat en fråga om ansvar.

Går det att se till att AI utvecklas enligt etiska riktlinjer, och vilka är i så fall de första stegen som EU bör ta? 
- Vi inom kommissionens rådgivande grupp - European Group of Ethics - föreslår att man ska undersöka möjligheterna att i lag styra och reglera det här nya området, hitta legala instrument. Lagar som på bästa sätt kodifierar vår moral. Vi understryker också hur viktigt det är med en internationell samsyn.

Kan du ge några konkreta exempel på när användandet av AI och de etiska aspekterna ställs på sin spets?
- Självkörande bilar är kanske den tillämpning som flitigast diskuterats. Inte minst efter det att en passagerare i en självkörande bil omkom i en olycka 2016. Här har man diskuterat vems värden och värderingar som avgör vad bilen skall göra i olika situationer. Ska fordonet skydda sin passagerare till varje pris? Eller ska det välja att utsätta sin last för en dödlig risk om alternativet är att köra över en fotgängare? Två fotgängare? En grupp av människor?
- Det område som kanske många ser som mest problematiskt är utvecklandet av robotar för krigföring. Robotsoldater. Förhoppningen är att dessa skall vara ”autonoma”, klara sig på egen hand. Lära sig av omgivningen och ta ”egna” beslut. Finns här en risk att vi en dag tappar kontrollen över de här krigarna, att de vänder sina vapen även mot dem som en gång skapade dem? Det låter som science fiction men förefaller idag vara en realitet.

Har du exempel på andra mindre kända områden som är problematiska?
- Ett område som inte diskuteras lika ofta är hur vänrobotar, robotsjuksköterskor och robotläkare påverkar den personliga integriteten, patientens autonomi. Vem är ansvarig för de värderingar som styr robotarnas val? Vem gav dem de preferenser de har? Vem är ansvarig om roboten gör något klandervärt? Knappast roboten, väl?

- Ett annat ganska spännande exempel är olika intelligenta system på nätet. De sköter sig ganska mycket eller helt och hållet utan mänsklig övervakning, samlar in information om dig som sedan sammanfattas i exempelvis den marknadsföring som når dig. Dessa nätbaserade system kan i värsta fall bidra till att skapa bilder av användaren som inte harmonierar med användarens självbild. Ett missvisande porträtt kan på ett allvarligt sätt påverka enskilda individer negativt och blir ett moraliskt problem.

Ni skriver i era rekommendationer till Europakommissionen att AI kan bli ett hot mot demokratin. På vilket sätt?
- Vi har sett vilket oerhört inflytande twittrandet och bloggandet fått på våra liv. Vi har sett hur falska nyheter, osanningar och halvsanningar påverkar journalister, politiker, dig och mig. Idag är det såvitt jag vet livs levande personer som sitter framför sina datorer och bloggar och twittrar. Några med god kunskap och information och ärliga syften, andra med moraliskt tveksamma åsikter och fingrarna fulla av halvsanningar och lögner. Det senare kan ju artificiella system göra tusen gånger snabbare och bättre. I förlängningen kan detta leda till en rubbad demokrati.

Vilka områden har då mest att vinna på utvecklingen inom AI? 
- Om man använder dessa tekniker på ett förnuftigt sätt gissar jag att de på ett utmärkt sätt kan användas inom alla områden – i vardagen, inom skola och utbildning, i forskningen, inom industrin och i hälso- och sjukvården – och i stort och smått.
- Robotläkare, för att ta ett mer konkret exempel, tror jag vi kommer att få se allt mer frekvent inom vården, allt ifrån robotdiagnostiker till nästan helt autonoma robotkirurger.

Läs riktlinjerna från The European Group on Ethics in Science and New Technologies

 

Intresserad av forskning och samhälle?
Prenumerera på Apropå!

I nyhetsbrevet Apropå varvas senaste nytt från Lunds universitet med kommentarer till aktuella samhällshändelser från några av våra 5000 forskare.