Makabert tankeeksperiment: Bør bilen fortsette rett frem og treffe to kriminelle og tre uteliggere som går på rødt lys? Eller bør bilen svinge og treffe en lege som går på grønt lys? Forskere fra MIT har testet hvordan folk tar stilling til slike moralske dilemmaer.
Makabert tankeeksperiment: Bør bilen fortsette rett frem og treffe to kriminelle og tre uteliggere som går på rødt lys? Eller bør bilen svinge og treffe en lege som går på grønt lys? Forskere fra MIT har testet hvordan folk tar stilling til slike moralske dilemmaer.

Hva skjer når selvstyrte biler skal bestemme over liv og død?

40 millioner svar er avgitt. Hvem bør bli påkjørt når en selvkjørende bil må velge mellom to onder?

Published
"Trolly-problemet" (Illustrasjon: 	McGeddon)
"Trolly-problemet" (Illustrasjon: McGeddon)

Et tog kommer kjørende rett mot fem personer som er bindt fast til jernbanesporet. Du står ved en en sporveksler. Om du drar i spaken dirigerer du toget inn på sidesporet, men der ligger det en person. Ville du dratt i spaken eller forholdt deg passiv?

Maskiners moral

Ajzek Azimov, var en russiskfødt amerikansk forfatter og professor i biokjemi. Han skrev science fiction og populærvitenskapelige bøker.

I 1940 formulerte han det som har blitt kalt robotikkens tre lover:

  1. En robot tillates ikke å skade et menneske eller passivt la et menneske komme til skade.
  2. En robot må følge ordre gitt av mennesker bortsett fra når slike ordre kommer i konflikt med første lov.
  3. En robot må verne om sin egen eksistens såfremt slikt vern ikke kommer i konflikt med første og andre lov.

Lovene sier derimot ikke noe om hva en robot skal gjøre dersom det å skade et eller flere mennesker er uunngåelig.

Dette tankeeksperimentet er et velkjent dilemma som filosofer har diskutert variasjoner av i en årrekke.

Nå er denne typen tankeeksperimenter aktuelle om aldri før. Produsenter som vil satse på selvkjørende biler må ta stilling til hvordan bilen skal programmeres til å reagere i en nødssituasjon. I mars i år ble den første fotgjengeren drept av en førerløs bil, skriver TV2. Hvordan skal en selvkjørende bil reagere i en situasjon hvor skade er uunngåelig?

En forskergruppe fra MIT (Massachusetts Institute of Technology) har tatt dette spørsmålet på alvor. I 2016 lanserte de en nettside kalt «Moral Machine». Her kan mennesker fra hele verden stemme på hvordan en bil bør takle moralske dilemmaer. Det gir et innblikk i hvordan folk vekter forskjellige hensyn.

Bør bilen beskytte sine passasjerer for enhver pris? Hva hvis fem mennesker går ut i veien, hva hvis de går på rødt lys?

Nå har forskerne bak nettsiden oppsummert folkets dom i en vitenskapelig artikkel publisert i tidsskriftet Nature. Datamaterialet består av rundt 40 millioner svar fra mennesker i hele verden.

Hvilke hensyn skal settes først?

Man kan spørre seg hvor ofte en selvkjørende bil må velge mellom å kjøre på tre stykker eller krasje i en vegg. Det er heldigvis ekstremt sjelden. Det må sies at eksemplene i Moral Machine er nokså urealistiske. Det er lite trolig at en bli vil kunne skille mellom hvem som er leger eller uteliggere. Dette er nok tatt med mest av nysgjerrighet.

På nettsiden Moral Machine vises det bilder som illustrerer et dilemma. Deretter skal man velge et av to alternativer. Forskerne har undersøkt hvordan vi vekter følgende faktorer:

Bremsene har røket og bilen er på full fart mot en betongblokk i veien. Skal den svinge unna? Fotgjengerne går jo tross alt på rødt lys.
Bremsene har røket og bilen er på full fart mot en betongblokk i veien. Skal den svinge unna? Fotgjengerne går jo tross alt på rødt lys.
  • Holde stø kurs vs. svinge
  • Spare fotgjengere vs. passasjerer
  • Spare flest mulig liv vs. få liv
  • Spare de som går på grønt lys vs. rødt lys
  • Spare mennesker vs. dyr
  • Spare gamle vs. unge
  • Spare de med høy sosial status vs. lav sosial status
  • Spare atletiske vs. overvektige
  • Spare menn vs. kvinner

Disse karakterene ble oftest drept

Den som ble reddet absolutt flest ganger var en baby i barnevogn. Deretter en jente, en gutt og gravid dame.

Det å holde stø kurs var faktisk minst førende for hvordan folk svarte. Fotgjengere ble spart litt oftere enn passasjerer i bilen.

De tre tydeligste preferansene var å spare mennesker over dyr, flest mulig og unge over gamle.

Resultatene viste også noe mer kontroversielle preferanser. Overvektige figurer hadde 20 prosent større sjanse for å bli påkjørt enn veltrente. Uteliggere hadde 40 prosent større sjanse for å bli truffet enn andre. Det samme hadde de som gikk på rødt lys.

Den figuren som ble drept aller oftest var en katt. Deretter fulgte den kriminelle, og en hund. Ellers var det den gamle mannen og damen som oftest måtte bøte med livet.

Figur a: Slik vektet folk folk forskjellige hensyn. Figur b: viser hvilke karakterer som ble drept oftest og sjeldnest.
Figur a: Slik vektet folk folk forskjellige hensyn. Figur b: viser hvilke karakterer som ble drept oftest og sjeldnest.

Men, det var en del kulturelle forskjeller.

Naboland svarte nokså likt

Når forskerne studerte hvordan ulike land svarte la de merke til at naboland så ut til å ha nokså like meninger. De analyserte dataene nærmere og oppdaget at preferansene kunne deles opp i tre «kulturelle klynger». Forskerne mener at disse funnene styrker troverdigheten til resultatene og viser at de ikke er tilfeldige.

Den vestlige klyngen består av land i Europa og Nord-Amerika. Den andre kaller forskerne «den østlige klyngen», den består av land som Japan, Taiwan, og islamske land som Pakistan og Saudi-Arabia. Den tredje klyngen kaller forskerne den sørlige. Her er både søramerikanske og sørafrikanske land med.

I en visualisering av informasjonen kan du se hvordan ulike land vektet faktorene, her kommer kulturelle forskjeller tydelig frem:

Jo lenger ut i kantene figurens konturer befinner seg, jo viktigere var disse faktorene for de som avga svar. Det hvite feltet viser det globale gjennomsnittet. Den vestlige figuren viser Norge (blå) og Tyskland (gul). Den sørlige figuren viser Peru (blå) og Venezuela (gul) og den østlige figuren viser Japan (blå) og Kina (gul).
Jo lenger ut i kantene figurens konturer befinner seg, jo viktigere var disse faktorene for de som avga svar. Det hvite feltet viser det globale gjennomsnittet. Den vestlige figuren viser Norge (blå) og Tyskland (gul). Den sørlige figuren viser Peru (blå) og Venezuela (gul) og den østlige figuren viser Japan (blå) og Kina (gul).

Både vestlige og østlige land er opptatt av at mennesker skal spares over dyr. Men i søramerikanske land var de påfallende lite opptatt av dette. Isteden har de en mye tydeligere preferanse enn gjennomsnittet for å spare de med høy status. De har også valgt å redde kvinner mye oftere enn menn.

Funfacts

  • Frankrike var det landet som aller oftest ofret gamle til fordel for de unge.
  • For de Sør-Amerikanske landene Paraguay, Costa Rica og Nicaragua kom det å redde de atletiske ut som den viktigste faktoren.
  • Landet som var aller mest opptatt av å redde de med høy status var Mongolia og Angola.
  • Norge og Danmarks svarte nesten helt likt.
  • Japan valgte nesten alltid å spare fotgjengere.
  • Myanmar var det landet som mest konsekvent valgte at bilen skulle holde stø kurs.

Kina, Japan noen andre østlige land vekter det å «holde stø kurs» som noe av det viktigste. Østlige land er i gjennomsnitt mer opptatt av å vurdere situasjonen etter om fotgjengerne følger loven eller ikke (altså om de går på grønt lys). Forskerne forklarer dette med at land som har sterke institusjoner og klare sanksjoner for brudd på loven er mindre tolerante overfor regelbrytere.

Til forskjell fra mange andre land, vekter østlige land oftere gamle likt som unge. Respekt for eldre er en viktig dyd. Antall hadde heller ikke så mye å si. Forskerne forklarer dette med kjente forskjeller mellom individualistiske og kollektivistiske kulturer.

Graden av ulikhet i landet ser ut til å ha en viss sammenheng med hvor opptatt folk var av å redde de med høyere status. Nordmenn var mindre opptatt enn gjennomsnittet av om personene var fattige eller rike. Mens i Nigeria var sosial status det viktigste ved siden av det å spare mennesker over dyr.

Her kan du se hvordan de forskjellige landene svarte.

Byggestener for etiske regler?

Forskerne skriver at preferansene til befolkningen ikke nødvendigvis må være førende for hvordan man skal programmere en selvkjørende bil, men at det er en fordel å kunne enes om noe.

- Folks villighet til å kjøpe selvkjørende biler, og tolerere dem på veien, vil avhenge av aksept for de etiske reglene, skriver forskerne.

De tror det kan være mulig å etablere en bred etisk kode for maskiner, til tross for kulturelle forskjeller.

De tydligste preferansene globalt var å spare mennesker over dyr, spare så mange liv som mulig og spare unge over gamle.

- Disse tre preferansene kan bli vurdert som grunnleggende byggestener for maskinetikk, eller i det minste være interessante for beslutningstagere.

- Sosiologi, ikke etikk

Einar Duenger Bøhn er professor i filosofi ved Universitetet i Agder. Her jobber han blant annet med moral og kunstig intelligens ved Senter for forskning på kunstig intelligens (CAIR). Bøhn mener, i en sak i Aftenposten, at det ikke er noe i veien for at maskiner kan utvikle kunstig moral, og at de til og med kan gjøre vurderinger som er mer «riktige» enn menneskers.

Han er derimot ikke overbegeistret for den nye undersøkelsen.

- Det er veldig stort og bra prosjekt fordi de har spurt så mange. Kvantiteten er helt enorm. Det er interessant sosiologisk, men moralsk så forteller det ingen ting, sier Bøhn til forskning.no.

Han utdyper med å si at flertallet ikke nødvendigvis har fasiten på god moral.

- Vi vet godt fra historiske eksempler at majoriteten ikke alltid har rett. Undersøkelsen sier hva folk mener, altså hvordan ting er, men ikke noe om hvordan det bør være. Her er det en feilslutningsfare fra er til bør.

Han trekker også frem metodiske utfordringer ved undersøkelsen. Som at den kanskje tiltrekker seg enkelte grupper mennesker.

Aksepterer risikoen på offentlig transport

Bøhn forteller at det er to måter å forske på maskinetikk.

Det ene metoden er en ovenfra-og-ned-strategi hvor du gir maskinen regler den skal følge.

Den andre er en nedenfra-og-opp-strategi, hvor du lærer opp en maskin gjennom det som kalles maskinlæring, til å selv finne fram til mønstre som er relevante.

- Denne undersøkelsen er kun relevant for det første, altså å lage regler for maskinen, som i et spill. For eksempel «favoriser alltid de yngre, med mindre...».

- Men jeg tror den andre metoden er fremtiden.

– La oss si det implementeres regler. Selv om folk mener bilen bør prioritere barn og flertallet i teorien. Vil folk sette seg i en bil som kan komme til å ofre deg i en ulykke?

- Tidligere undersøkelser viser at det er forskjell på om man eier bilen selv eller om man bare sitter på og bilen er en del av en transporttjeneste.

Bøhn forklarer det med at ingen på bussen eller T-banen forventer at den skal favorisere enkelte passasjerer.

- Du går inn på en T-bane, buss eller trikk, vel vitende om at den bare minimerer antall dødsfall. Men når du skal kjøpe en privatbil så er det ikke sikkert du vil akseptere den strategien. Du vil at bilen skal favorisere deg.

- Det er en psykologisk merkelig greie. Det har ingenting med moral å gjøre, det er et psykologisk faktum.

Mye røyk for lite ild

- Helt ærlig må jeg si at denne diskusjonen om selvstyrte biler er litt oppskrytt. Jeg tror det vil komme til å løse seg helt selv.

Bøhn synes det er litt kjipt å si, for moralfilosofer og mennesker flest har til alle tider likt å bryne seg på moralske dilemmaer, og nå har vi et veldig konkret tema.

-Jeg tror ikke det kommer til å bli så mye moralske dilemmaer med de selvkjørende bilene på veiene. Det som kommer til å skje er at dødsstatistikken og antall ulykker kommer til å gå så drastisk ned. Og de få ulykkene som skjer, kommer vi til å akseptere som en glipp i systemet. Så kan forsikringsselskapene ta seg av resten. Det er mye røyk for veldig lite ild her.

Vil du teste deg selv? Det kan gjøres her.

Referanse: Edmond Awad m.fl: "The Moral Machine experiment". Nature, 24 Oktober 2018. Sammendrag.