
Krigsroboter: Kan vi lære dem å oppføre seg etisk?
Kan en robot programmeres slik at den ikke rammer sivile eller utøver tortur i krig?
Kunstig intelligens og robotteknologi er i voldsom utvikling. Vi får selvkjørende biler, men også krigsdroner som kan kontrolleres fra et trygt skrivebord langt unna slagmarken.
Det gir selvsagt noen etiske dilemmaer – særlig når teknologien blir brukt mot mennesker.

For eksempel har mer enn 50 forskere fra 30 land nylig sendt inn et åpent brev der de klager over et sørkoreansk universitet som har samarbeidet med våpenindustrien om å lage autonome våpen – det vil si våpen styrt av kunstig intelligens.
Et av spørsmålene i debatten er om det er mulig å lære roboter å handle etter de internasjonale konvensjonene for krigføring, slik at de for eksempel ikke dreper sivile.
– I prinsippet kunne man programmere en robot – gitt at den kan skille mellom en sivil og en fiende – til å angripe fienden, forklarer Martin Mose Bentzen, som er førsteamanuensis i teknologietikk ved Management Engineering ved DTU til videnskab.dk.
Det høres kanskje enkelt og greit ut, men teknologien har en bakside.
– Problemet er at man også kan programmere roboten til ikke å følge krigens lover, for eksempel til bare å angripe sivile. For roboter har jo ingen sunn fornuft, sier Bentzen.
Robotene skal lære Kant og utilitarisme
En form for sunn fornuft nettopp det han i et nytt prosjekt forsøker å inkorporere i roboter. Ideen er at robotene skal «lære» å handle etter en rekke etiske prinsipper – blant annet inspirert av den tyske filosofen Immanuel Kant.
Robotene skal for eksempel sikres gjennom Immanuel Kants begrep, det kategoriske imperativet, som innebærer at mennesker aldri må brukes som middel til å oppnå et mål hvis de ikke også behandles som et mål i seg selv.
Dessuten inngår utilitarismen som et annet av prinsippene i det nye prosjektet. Det går ut på at robotene skal handle slik at de maksimerer velferden i en situasjon – altså velger den handlingen der færrest kommer til skade.
Bentzen nevner også dobbelteffekt-prinsippet, utviklet av den italienske filosofen og teologen Thomas Aquinas.
- Les også denne saken fra De nasjonale forskningsetiske komiteene: – Forskeren har selv ansvar for at kunstig intelligens ikke utgjør en fare
– Det innebærer at man ikke må bruke en negativ effekt til å oppnå noe godt. Det er greit at det gjør vondt hos tannlegen, siden det er en ikke-intendert bivirkning av operasjonen, men det er ikke greit å lyve for å bli rik, sier han.
– Vi bør ta utgangspunkt i den 2500 år gamle tradisjonen innen filosofi og etikk, der det er en dialog, og det er utviklet et begrepsapparat som kan brukes i disse dilemmasituasjonene.
Et «prisverdig initiativ»
Selv om det er lang vei til å integrere etiske prinsipper i datateknologien bak roboter, er ideen og initiativet opplagt, ifølge flere forskere.
– Det er et prisverdig initiativ. Om Kant er nok, det er et annet spørsmål, sier Thomas Ploug, som er professor ved institutt for kommunikasjon og psykologi ved Aalborg Universitet.
Og det er utrolig vanskelig å velge hvilke etiske prinsipper som kan sikre en optimal atferd hos for eksempel krigsroboter, mener Bentzen.
– Thomas har rett i at Kant og utilitarisme ikke er nok. Det er jo et nytt forskningsfelt, så det kommer nok andre på banen, avslutter han.
© Videnskab.dk. Oversatt av Lars Nygaard for forskning.no.