Denne artikkelen er produsert og finansiert av Universitetet i Bergen - les mer.
Timmy Gresshoppe prøvde seg som moralsk rådgiver for Pinocchio. Det gikk sånn passe. Kan et dataprogram lykkes bedre som etikkrådgiver for maskiner?(Skjermdump: Illustrasjon fra Disneys Pinocchiofilm fra 1940 hentet fra wikimedia commons. Pinocchio / Disney)
Kan Timmy Gresshoppe gi maskinene moralsk veiledning?
Timmy Gresshoppe hjalp Pinocchio å skille mellom rett og galt. Kan en kunstig «moralsk rådgiver» gjøre samme nytte for maskiner som møter etiske utfordringer?
Det tror Marija Slavkovik, som er professor og instituttleder ved
Institutt for informasjons- og medievitenskap ved Universitetet i Bergen.
I en 55-siders vitenskapelig artikkel nylig publisert i Journal of Artificial Intelligence Research, viser Slavkovik og kolleger i Kina og Luxembourg hvordan en kunstig etikkrådgiver kan programmeres.
Rådgiveren – foreløpig på idéstadiet – har fått navnet Jiminy, i Norge bedre kjent som Timmy Gresshoppe.
– I teorien skal et slikt program kunne kobles til den sentrale styringsalgoritmen for alle typer autonome systemer, altså systemer som opererer uavhengig av menneskelig tilsyn, sier Slavkovik.
Maskinene
er våre moralske stedfortredere
Jo flere oppgaver vi mennesker automatiserer og overlater til maskiner, jo
flere etiske utfordringer støter maskinene på.
Her er noen eksempler:
I utgangspunktet er det en god idé at selvkjørende biler stopper
på rødt lys. Men hva om det kommer et vogntog med defekte bremser i stor fart
bakfra og eneste mulighet til å redde passasjerene, er å kjøre på rødt? Og hva
om denne manøveren i neste omgang setter uskyldige fotgjengere i fare?
Hvis sensorene i et smarthus oppdager hasjrøyk hos tenåringen i
kjellerstua, skal systemet da varsle politiet? Hva med hensynet til personvern
og privatlivets fred? Hva om er det snakk om medisinsk marihuana kjøpt på
resept? Er hasj i det hele tatt forbudt i landet der hasjrøykeren bor?
Et verktøy som siler innhold i sosiale medier registrerer at det
er publisert et bilde av et barn i bar overkropp i vannkanten. Skal det
betraktes som barnepornografi og fjernes? Eller er det et uskyldig ferieminne
lagt ut av bestemor etter turen til Gran Canaria?
En smarthøyttaler med stemmeassistent tar opp en samtale rundt et
middagsbord, der det snakkes om å sprenge Johanneskirken i Bergen i luften 1.
juledag. Er det bare løsprat, eller planlegges det en terroraksjon?
– Når vi mennesker ber maskiner om å ta beslutninger eller løse
oppgaver for oss, gjør vi maskinene til våre stedfortredere også i moralsk
forstand. Derfor plikter vi å gi dem redskapene som trengs for at de skal kunne
håndtere etiske utfordringer tilfredsstillende. Det er lett å glemme at
maskinene selv hverken har moral eller forstår kontekst du og jeg tar for gitt,
sier Slavkovik.
Hvor hjelpeløse maskinene i realiteten er, illustrerer hun slik:
– La oss anta at vi i fremtiden har robotkelnere. Hvis jeg ber en
robotkelner om et glass, kan den ikke uten videre vite at jeg mener et rent
glass fra kjøkkenet. Den kan like gjerne ta et brukt glass fra nabobordet,
kanskje til og med ta et ut av hånden til en annen gjest. All kontekst og
forståelse av sosiale normer som vi tar for gitt, må spesifiseres for en robot
i et språk som et dataprogram forstår.
Basert
på normer og formell argumentasjon
Ifølge Slavkovik kan en kunstig rådgiver trolig programmeres på
«minst tusen forskjellige måter».
– Vårt forslag er basert på normer og formell argumentasjon. Det
betyr at programmet må fores med informasjon om hvilke lover, regler og sosiale
normer som gjelder på det feltet den aktuelle maskinen opererer på. I tillegg
må programmet ta i betraktning hvilke argumenter de som berøres av maskinens
handlinger, har for at én løsning skal velges foran en annen.
Deretter prøves argumenter og motargumenter mot hverandre gjennom
formell argumentasjon.
Annonse
– Formell argumentasjon er det jeg vil kalle en svært matematisk
måte å føre en diskusjon på. Etter matematisk logikk vinner et argument bare
frem dersom det er i stand til å avvise alle motargumenter. En kollega av meg
har kalt det «gunfighter rules». Argumentet er sant hvis alle motstanderne er
døde når kruttrøyken letter, sier Slavkovik.
Hun viser til eksempelet med bildet av det nakne barnet for å
forklare hvordan argumentasjonen kan arte seg:
– Argumentet om at det er barnepornografi som automatisk må
fjernes, faller dersom det viser seg at vi snakker om det berømte bildet av
jenta som rømmer fra napalmregnet under Vietnamkrigen. Da er bildet et
historisk dokument det kan være feil å sensurere.
Men hva om det ikke er henne heller, men det omtalte feriebildet
fra Gran Canaria?
– Da kan det argumenteres med at bestemor må få publisere de
ferieminnene hun ønsker. Så er spørsmålet hvordan det argumentet står seg mot behovet for å beskytte barnet? Slik går
programmet gjennom alle argumentene det er foret med og foretar en formell
avveining basert på hensynene til de ulike interessentene.
Siden virkeligheten er en vidunderlig komplisert innretning, vil
programmet selvsagt ofte støte på situasjoner der formell argumentasjon ikke leder frem til noen tydelig
anbefaling.
– Dette vil være en helt sentral utfordring uansett hvordan
programmet lages. Vi har forsøkt å løse det ved å anta at det er mulig å gjøre
prioriteringer mellom interessentene. Altså litt som å si at ved stemmelikhet
skal presidenten eller ordføreren ha det avgjørende ordet, forteller
professoren.
Kunstig
intelligens krever mye manuelt arbeid
I artikkelen viser forskerne at det er mulig å lage den etiske
rådgiveren de har sett for seg og at formelle argumenter lar seg prosessere i
den matematiske modellen de har foreslått.
For at en kunstig Timmy Gresshoppe skal fungere som rådgiver i
praksis, er det likevel en rekke forutsetninger som må være på plass.
– Sannheten er at det meste av det som omtales som kunstig
intelligens, er basert på enorme mengder manuelt forarbeid som må gjøres av
mennesker, sier Slavkovik.
Hun forklarer at i tilfellet Timmy Gresshoppe må mennesker for det
første identifisere de etiske utfordringene et bestemt autonomt system kan
havne i. Ellers er det ikke klart når
den etiske rådgiveren skal gripe inn.
Annonse
For det andre må mennesker samle inn relevant kontekstuell
informasjon og argumenter som ivaretar synspunktene til ulike interessenter.
– Eksempler på slike interessenter kan være de som lager de
autonome systemene, de som bruker dem, og personer eller institusjoner som
påvirkes av bruken. I vår modell brukte vi tre slike interessenter, og allerede
da ble det komplisert. I virkeligheten kan det være et utall interessenter å ta
hensyn til, sier hun.
For det tredje må faktainformasjon oversettes til et språk
datamaskiner kan håndtere ved hjelp av datalogikk. Dette har tradisjonelt vært
gjort av spesialister som kalles kunnskapsingeniører. Slavkovik har håp om
at det på sikt skal være mulig å automatisere i alle fall deler av denne
jobben. I motsatt fall kan det bli fryktelig dyrt.
– Vi kunne også lagt til et fjerde punkt om behovet for å kontinuerlig
oppdatere Timmy Gresshoppe, et femte om hvordan han skal kobles til maskinenes
styringsenheter, og sikkert et sjette og syvende punkt også. Men at det er
vanskelig, betyr ikke at vi skal la være å prøve, sier Slavkovik.
Behovet
for etikkverktøy presser seg fram
I den originale versjonen av historien blir Pinocchio så lei av
formaningene at han tar livet av den snakkende gresshoppen. Slavkovik tror en
kunstig Timmy Gresshoppe tross alt har bedre odds.
Hun tror det er mulig å konstruere en fungerende Timmy Gresshoppe
allerede i dag, men bare for et lite og svært veldefinert problem i svært
avgrensede omgivelser.
– Hvis han skal fungere på et generelt nivå der det gir mening å
snakke om kunstig intelligens, trengs
det mye forskning og store investeringer over lang tid. Men jeg tror vi her
snakker om behov som presser seg frem, for jo mer vi automatiserer, jo
tydeligere blir det også bli at maskinene trenger bedre dataverktøy for å
håndtere etiske utfordringer.