Annonse
Kan vi lære krigsroboter å skille venn fra fiende? (Foto: Gorodenkoff / Shutterstock / NTB scanpix)

Krigsroboter: Kan vi lære dem å oppføre seg etisk?

Kan en robot programmeres slik at den ikke rammer sivile eller utøver tortur i krig?

Publisert

The Hera Project

The Hera Project (Hybrid Ethical Reasoning Agents) går ut på å integrere etiske prinsipper i sosiale roboter – for eksempel selvkjørende biler.

Prosjektet ble startet i 2017 av Martin Mose Bentzen og Felix Linder fra Albert Ludwig-universitetet i Freiburg.

Kilde: The Hera Project

Kunstig intelligens og robotteknologi er i voldsom utvikling. Vi får selvkjørende biler, men også krigsdroner som kan kontrolleres fra et trygt skrivebord langt unna slagmarken.

Det gir selvsagt noen etiske dilemmaer – særlig når teknologien blir brukt mot mennesker.

I dag kan raketter avfyres med et trykk på en knapp. Teknologien har endret krigføringen vår, og det medfører noen helt nye etiske dilemmaer som bør tas alvorlig, mener forskerne. (Foto: Ivan Cholakov / Shutterstock / NTB scanpix)

For eksempel har mer enn 50 forskere fra 30 land nylig sendt inn et åpent brev der de klager over et sørkoreansk universitet som har samarbeidet med våpenindustrien om å lage autonome våpen – det vil si våpen styrt av kunstig intelligens.

Et av spørsmålene i debatten er om det er mulig å lære roboter å handle etter de internasjonale konvensjonene for krigføring, slik at de for eksempel ikke dreper sivile.

– I prinsippet kunne man programmere en robot – gitt at den kan skille mellom en sivil og en fiende – til å angripe fienden, forklarer Martin Mose Bentzen, som er førsteamanuensis i teknologietikk ved Management Engineering ved DTU til videnskab.dk.

Det høres kanskje enkelt og greit ut, men teknologien har en bakside.

– Problemet er at man også kan programmere roboten til ikke å følge krigens lover, for eksempel til bare å angripe sivile. For roboter har jo ingen sunn fornuft, sier Bentzen.

Robotene skal lære Kant og utilitarisme

En form for sunn fornuft nettopp det han i et nytt prosjekt forsøker å inkorporere i roboter. Ideen er at robotene skal «lære» å handle etter en rekke etiske prinsipper – blant annet inspirert av den tyske filosofen Immanuel Kant.

Robotene skal for eksempel sikres gjennom Immanuel Kants begrep, det kategoriske imperativet, som innebærer at mennesker aldri må brukes som middel til å oppnå et mål hvis de ikke også behandles som et mål i seg selv.

Dessuten inngår utilitarismen som et annet av prinsippene i det nye prosjektet. Det går ut på at robotene skal handle slik at de maksimerer velferden i en situasjon – altså velger den handlingen der færrest kommer til skade.

Bentzen nevner også dobbelteffekt-prinsippet, utviklet av den italienske filosofen og teologen Thomas Aquinas.

– Det innebærer at man ikke må bruke en negativ effekt til å oppnå noe godt. Det er greit at det gjør vondt hos tannlegen, siden det er en ikke-intendert bivirkning av operasjonen, men det er ikke greit å lyve for å bli rik, sier han.

– Vi bør ta utgangspunkt i den 2500 år gamle tradisjonen innen filosofi og etikk, der det er en dialog, og det er utviklet et begrepsapparat som kan brukes i disse dilemmasituasjonene.

Et «prisverdig initiativ»

Selv om det er lang vei til å integrere etiske prinsipper i datateknologien bak roboter, er ideen og initiativet opplagt, ifølge flere forskere.

– Det er et prisverdig initiativ. Om Kant er nok, det er et annet spørsmål, sier Thomas Ploug, som er professor ved institutt for kommunikasjon og psykologi ved Aalborg Universitet.

Og det er utrolig vanskelig å velge hvilke etiske prinsipper som kan sikre en optimal atferd hos for eksempel krigsroboter, mener Bentzen.

– Thomas har rett i at Kant og utilitarisme ikke er nok. Det er jo et nytt forskningsfelt, så det kommer nok andre på banen, avslutter han.

© Videnskab.dk. Oversatt av Lars Nygaard for forskning.no.

Powered by Labrador CMS