Bør militære roboter rette seg etter Geneve-konvensjonen? og bør robotbilen din drepe deg for å redde to andre? Slike spørsmål ønsker Future of Life Institute å få en bredere diskusjon om.  (Foto: Shutterstock)
Bør militære roboter rette seg etter Geneve-konvensjonen? og bør robotbilen din drepe deg for å redde to andre? Slike spørsmål ønsker Future of Life Institute å få en bredere diskusjon om. (Foto: Shutterstock)

- Forskeren har selv ansvar for at kunstig intelligens ikke utgjør en fare

Bør robotbilen din drepe deg for å redde to andre? Debatten om risikoen ved utvikling av kunstig intelligens har startet. - Den må involvere både allmennheten, politikere og akademikere, sier norsk etikkekspert.

Published

Flere teknologi-eksperter skrev denne uken under et åpent brev der de ønsker mer forskning rundt farene som kan oppstå når kunstig intelligens (AI) utvikles. Blant dem som har signert er Tesla-gründer Elon Musk og fysiker Stephen Hawking.

Organisasjonen Future of Life Institute (FLI), som står bak brevet, fremhever at utviklingen av kunstig intelligens kan føre til mye bra, men bare om forskningen unngår etiske fallgruver.

Det er ikke første gangen Musk og Hawking advarer mot robottrusselen. I august 2014 skrev Musk på twitter at AI er «potensielt farligere enn atomvåpen».  Han fikk støtte av Hawking, som i desember uttalte at «utviklingen av full kunstig intelligens kan bety slutten på menneskeheten».

Tidligere denne uken annonserte Musk at han donerer 10 millioner dollar til forskning omkring trygg bruk av kunstig intelligens.

Fordeler og farer

Det frivillige initiativet FLI ble opprettet i 2014 av blant andre Jaan Tallinn, en av grunnleggerne av Skype. Formålet er å stimulere forskning på å dempe trusler mot menneskelig eksistens, med særlig fokus på risiko som springer ut fra utviklingen av kunstig intelligens.

- De potensielle fordelene ved kunstig intelligens er enorme, utrydding av sykdom og fattigdom er ikke utenkelig, heter det i brevet. Men på grunn av det enorme potensialet, er det viktig å forske på hvordan man kan høste fordeler og samtidig unngå potensielle farer, skriver organisasjonen.

- Slik forskning må nødvendigvis være tverrfaglig, fordi den handler både om samfunnet og om kunstig intelligens. Vi mener forskning på hvordan man kan lage systemer for kunstig intelligens som er robuste og til nytte, er både viktig og betimelig, skriver FLI videre.

Organisasjonen lister opp konkrete områder forskningen bør følge opp, blant andre:

  • Skadeansvar og lovgivning for selvgående maskiner: Hvis selvkjørende biler blir involvert i alvorlige ulykker, hvem har da ansvaret?
  • Maskinetikk: Bør robotbilen din drepe deg for å redde to andre?
  • Autonome våpen: Bør militære roboter rette seg etter Geneve-konvensjonen?
  • Personvern: Hvordan bør AI-systemers evne til å tolke data hentet fra overvåkingskameraer, telefonsamtaler, e-post o.l. forholde seg til personvern?
  • Yrkesetikk: Hvilken rolle bør informatikere spille i lovgiving og etikk for utvikling og bruk av kunstig intelligens?
  • Verifikasjon, validitet, sikkerhet og kontroll: Bygde jeg systemet riktig? Bygde jeg det rikitge systemet? Ok, jeg bygde systemet feil, kan jeg fikse det?

Forskerens ansvar

Helene Ingierd er sekretariatsleder for Den nasjonale forskningsetiske komité for naturvitenskap og teknologi (NENT). Hun mener Future of Lifte Institute tar opp svært aktuelle problemstillinger.

- Forskere har et ansvar for å vurdere hvorvidt egen forskning direkte eller indirekte kan komme samfunnet til gode. De har også et medansvar for å sikre at den ikke gjør skade. Ikke minst er det et forskeransvar å kommunisere vurderinger av kortsiktige så vel som mulig langsiktige konsekvenser av forskningen til politiske beslutningstakere og allmennheten, sier hun.

- Det åpne brevet fra Future of Life Institute er et godt eksempel på hvordan dette ansvaret kan forvaltes. Her snakker vi om et forskningsfelt som kan ha enorm potensiell nytteverdi for samfunnet, men også gi opphav til fundamentale skader, legger hun til.  

Usikker nytte og risiko

Ingierd fremhever samtidig at det hersker stor usikkerhet rundt mulig nytte og risiko, også når vi snakker om kortsiktige konsekvenser i tid, slik som konsekvenser for arbeidsmarkedet.

- Det er derfor betimelig å peke ut forskningsområder og spørsmål med behov for ytterligere innsats og avklaring. Spørsmålene i listen over er alle verdispørsmål som fortjener en bred drøftning, mener hun.

I EUs forskningsstrategi har Responsible Research and Innovation (RRI) blitt et helt sentralt begrep.

- RRI-begrepet betoner spesielt viktigheten av nettopp å involvere ulike beslutningstakere i akademia, industri og politikk, så vel som allmennheten i en bred diskusjon om de etiske utfordringene i forskning og teknologiutvikling, avslutter Ingierd.    

Referanse

Elon Musk, m.fl. Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter. Future of Life Institute, januar 2015. 

Future of Life Institute. Research priorities for robust and beneficial artificial intelligence. Dokument 11. januar 2015