Kunstig intelligens og robotteknologi er i voldsom utvikling. Vi får selvkjørende biler, men også krigsdroner som kan kontrolleres fra et trygt skrivebord langt unna slagmarken.
Et av spørsmålene i debatten er om det er mulig å lære roboter å handle etter de internasjonale konvensjonene for krigføring, slik at de for eksempel ikke dreper sivile.
– I prinsippet kunne man programmere en robot – gitt at den kan skille mellom en sivil og en fiende – til å angripe fienden, forklarer Martin Mose Bentzen, som er førsteamanuensis i teknologietikk ved Management Engineering ved DTU til videnskab.dk.
Det høres kanskje enkelt og greit ut, men teknologien har en bakside.
– Problemet er at man også kan programmere roboten til ikke å følge krigens lover, for eksempel til bare å angripe sivile. For roboter har jo ingen sunn fornuft, sier Bentzen.
Robotene skal lære Kant og utilitarisme
En form for sunn fornuft nettopp det han i et nytt prosjekt forsøker å inkorporere i roboter. Ideen er at robotene skal «lære» å handle etter en rekke etiske prinsipper – blant annet inspirert av den tyske filosofen Immanuel Kant.
Robotene skal for eksempel sikres gjennom Immanuel Kants begrep, det kategoriske imperativet, som innebærer at mennesker aldri må brukes som middel til å oppnå et mål hvis de ikke også behandles som et mål i seg selv.
Dessuten inngår utilitarismen som et annet av prinsippene i det nye prosjektet. Det går ut på at robotene skal handle slik at de maksimerer velferden i en situasjon – altså velger den handlingen der færrest kommer til skade.
Bentzen nevner også dobbelteffekt-prinsippet, utviklet av den italienske filosofen og teologen Thomas Aquinas.
– Det innebærer at man ikke må bruke en negativ effekt til å oppnå noe godt. Det er greit at det gjør vondt hos tannlegen, siden det er en ikke-intendert bivirkning av operasjonen, men det er ikke greit å lyve for å bli rik, sier han.
Annonse
– Vi bør ta utgangspunkt i den 2500 år gamle tradisjonen innen filosofi og etikk, der det er en dialog, og det er utviklet et begrepsapparat som kan brukes i disse dilemmasituasjonene.
Et «prisverdig initiativ»
Selv om det er lang vei til å integrere etiske prinsipper i datateknologien bak roboter, er ideen og initiativet opplagt, ifølge flere forskere.
– Det er et prisverdig initiativ. Om Kant er nok, det er et annet spørsmål, sier Thomas Ploug, som er professor ved institutt for kommunikasjon og psykologi ved Aalborg Universitet.
Og det er utrolig vanskelig å velge hvilke etiske prinsipper som kan sikre en optimal atferd hos for eksempel krigsroboter, mener Bentzen.
– Thomas har rett i at Kant og utilitarisme ikke er nok. Det er jo et nytt forskningsfelt, så det kommer nok andre på banen, avslutter han.