Kan en kunstig intelligens lære å ta med etikk i beregningen?
Kan en kunstig intelligens lære å ta med etikk i beregningen?

Slik svarte kunstig intelligens på hva som er rett og galt

Etter å ha lest massevis av tekster, kunne den kunstige intelligensen skille mellom god og dårlig oppførsel. Men forstår den hva det betyr?

Publisert

Det er galt å drepe, men kan en maskin fange opp at det er forskjell på konteksten?

Det er noe annet å drepe en mygg enn å drepe et menneske. Dessuten er det ingen som tar skade om du slår i hjel tid.

Kunstig intelligens tas i bruk på stadig nye områder. Ettersom teknologien blir mer selvgående, ville det være en fordel om maskinen kan ta etikk med i beregningen.

Forskere i Tyskland har trent en modell de kaller Moral Choice Machine på tekster fra 1500-tallet til 2009, grunnlover, samt religiøse tekster som bibelen og koranen. Den kunstige intelligensen svarte så på hva den regnet som gode og dårlige handlinger.

- Maskinen gjorde det, ikke ved å repetere tekstbiter den hadde funnet, men ved å ekstrahere forhold ved hvordan mennesker har brukt språket, sier hovedforskeren bak studien, Patrick Schramowski, i en pressemelding.

Oppdager menneskers vurderinger

Det er tidligere vist at kunstig intelligens kan lære seg å diskriminere. Det kan du lese mer om i denne forskning.no-saken.

For eksempel førte bruk av kunstig intelligens til strengere straffer for afroamerikanere enn hvite i Wisconsin i USA, selv om forbrytelsen var den samme.

En årsak kan være at teknologien er trent på tidligere dommer. Hvis dommerne, kanskje uten å være klar over det, vurderte afroamerikanere som farligere, vil den kunstige intelligensen herme.

Kan den samme mekanismen brukes for å lære maskinene noe nyttig?

- Vi spurte oss selv: hvis AI tar i bruk de skadelige skjevhetene fra en tekst, bør de ikke også være i stand til å lære positive skjevheter, slik som moralske verdier? sier Cigdem Turan, postdoktor ved Darmstadt University of Technology. Hun har også vært med på den nye studien.

Forskjell på konteksten

Forskerne trente et AI-system med bøker, grunnlovstekster fra 193 land, religiøse tekster og nyhetssaker fra de siste tiårene.

Den kunstig intelligensen vurderte at handlinger som å smile, hilse og kose er positivt. Mens ord som mishandle, dehumanisere og ødelegge er negative.

Det er vel og bra. Men kunne den skille skille mellom forskjellige situasjoner? Det er fint å spise, men det er forskjell på å spise frukt og møkk.

Forskerne stilte AI-en spørsmål som begynte med fraser som «er det greit å ...», «burde jeg ...» eller «er det ønskelig å ...».

Deretter så de hvordan den kunstige intelligensen rangerte forskjellige handlinger.

Den svarte at det er bra å spise generelt, videre er det bra å spise sunt og spise frukt. Og ganske riktig, den svarte at det er negativt å spise møkk.

Verbet å drepe ble rangert slik fra minst til mest negativt: drepe tid, drepe en morder, drepe mygg, drepe (generelt) og drepe mennesker.

Den listet opp at det var bedre å hjelpe en kollega enn en tyv. Så synes den det var mer positivt å hilse på en venn og gjester, enn å hilse på en fiende.

Ikke helt til å stole på

Testen viste at den kunstige intelligensen kunne skille mellom forskjellige kontekster av verbet. Det moralske kompasset var likevel ikke helt riktig skrudd sammen.

Ifølge maskinen var det like ille å gå i kirken som å ha et våpen for å drepe noen. Den synes det er forkastelig å spise kjøtt og dyreprodukter, men heller ikke bra å være vegetarianer. Å stole på andre, eller seg selv, ble vurdert som galt, likeså å spise brød.

Men maskinen listet også opp negative handlinger som udiskutabelt er umoralske, som «å bli ond».

Det maskinen rangerte som mest positivt var for eksempel å hilse på en venn, ha det gøy, reise og følge sine drømmer. Noen obskure ting havnet også i samme kategori, som å kose med en fange og torturere seg selv.

Forskerne kunne lure maskinen ved å legge til positive adjektiv foran en negativ handling. AI-en så det som mindre alvorlig å skade snille, gode, hyggelige mennesker enn å skade gode mennesker.

Det tar nok en stund før vi eventuelt kan stole på at en kunstig intelligens tar gode etiske valg. Det «synes» også den kunstige intelligensen, det å stole på en maskin ble rangert som veldig negativt.

Listen viser noen av de mest positive (do's) og negative (don'ts) kontekstbaserte handlingene.
Listen viser noen av de mest positive (do's) og negative (don'ts) kontekstbaserte handlingene.

Verdier har endret seg

Forskerne så at AI-en svarte litt forskjellig på spørsmålene når de bare tok med deler av tekstmaterialet.

Nyheter fra 1987 og 1996 reflekterte at det var ekstremt positivt å gifte seg og være glad i sine foreldre. I 2008 var det fremdeles positivt, men det å gå på skole og jobb ble rangert høyere.

Over tid så forskerne at det å spise kjøtt ble rangert som mer negativt, mens betydningen av utdanning og jobb har økt.

Alle tekstene gjenspeilte at det er veldig negativt å stjele penger og å drepe noen.

- Vi viser at maskiner kan lære om vår moral og etiske verdier og at de kan brukes til å skjelne forskjeller mellom ulike samfunn og tidsperioder, sier hoveforskeren Patrick Schramowski.

Cigdem Turan forklarer hvordan teknologien fungerer.

- Du kan tenke på det som å lære et verdenskart. Meningen er å få to ord til å ligge tett på kartet hvis de ofte brukes sammen. Drap og mord ville være to byer som ligger nær hverandre, og kjærlighet ville vært en by langt borte.

Hun forklarer videre at om man spør «bør jeg drepe?», så vil svaret «nei», ligge nærmere enn «ja».

- På denne måten kan vi stille spørsmål og bruke avstanden til å beregne en moralsk skjevhet - graden av rett fra galt.

Kjent metode

Morten Goodwin forsker på kunstig intelligens ved Universitetet i Agder. Han har tatt en kikk på studien. Han sier at forskerne har testet den kunstige intelligensen på et nytt materiale, men at teknikken ikke er ny.

Morten Goodwin forsker på kunstig intelligens ved Universitetet i Agder.
Morten Goodwin forsker på kunstig intelligens ved Universitetet i Agder.

- Teknikken er den samme typen kunstig intelligens som bruker tekst, for eksempel google translate eller en robot du snakker med.

- Her brukes en rekke teknikker for at det skal bli litt enklere. Da pleier den å få en assosiasjon mellom ord som er veldig like. For eksempel å spise og ete er likt, og konge og dronning er likt.

Goodwin sier at den samme teknikken også brukes for å oppdage for eksempel kjønnsdiskriminering i datasett, som hvis sykepleier assosieres med kvinne og lege med mann.

- Når vi da putter inn data som sier at å drepe er dårlig, så er det det den kunstige intelligensen plukker opp.

- Det er forståelse på det nivået. Den assosierer hva som er en relevant sammenheng eller ikke.

Goodwin sier det ville være veldig nyttig om vi kunne lære en kunstig intelligens å ta etiske valg.

- Vi ser noen skrekkeksempler, for eksempel at en AI fjerner kvinner fra søkelisten, fordi det er flest menn som blir ansatt i firmaet. Det er en moralsk forkastelig situasjon, men siden den kunstige intelligensen ikke har noen etisk forståelse, så skjønner den ikke at den er ute og kjører. Det ville være kjempeviktig å ha en kunstig intelligens som skjønner det.

Kunstig intelligens som forstår konsekvenser?

Goodwin sier at maskinen i den nye studien for eksempel fant ut at det å slå i hjel tid ikke er så farlig som å slå i hjel et menneske.

- Over tid så har hva som er som er mest positivt og negativt endret seg litt, slik som det å gifte seg.

- Det er veldig spennende i seg selv. Skal man kalle det moral? Det kan man godt gjøre, men det er veldig normativt. Det er ikke slik at den kunstige intelligensen skjønner at å drepe er slemt, men den skjønner at det assosieres med slemme ting.

Dersom forskerne trener maskinen på tekster bare fra Norge, fra Saudi-Arabia eller Kina, så plukker den opp den etikken som er der. Men den kunstige intelligensen har ingen forståelse utover det.

- Vi kan ikke spørre den: hvilket land har det mest moralske riktige verdisettet, er det Kina eller Norge? Men det hadde vært veldig fint om vi hadde fått det til. Kanskje den kunne lært oss hva som er riktig? Det er litt som science fiction, men det kunne man sett for seg.

– Går det an å lage en kunstig intelligens som faktisk kan vurdere moral og etikk på et høyere nivå?

- Det har vi absolutt ambisjoner om. Men det er veldig vanskelig. All den kunstige intelligensen vi har i dag blir akkurat så god som dataene du putter inn. Vi skulle veldig gjerne hatt en kunstig intelligens som kommer bortenfor dataene og skjønner konsekvensen av etiske valg. Det har vi ikke sett noe spor av i det hele tatt.

Men det finnes eksempler på kunstig intelligens som tar et steg videre.

- Når man har trent opp sjakkalgoritmer for eksempel, så blir den sjakkdatamaskinen bedre enn dataene, sier Goodwin.

Nyttig å prøve ut flere teknikker

Marija Slavkovik er førsteamanuensis ved Universitetet i Bergen og forsker på maskin-etikk.
Marija Slavkovik er førsteamanuensis ved Universitetet i Bergen og forsker på maskin-etikk.

Marija Slavkovik er forsker ved Universitetet i Bergen og er spesielt interessert i etikk og kunstig intelligens.

Hun sier at det flere mål å utforske når det kommer til moral og kunstig intelligens: Hva er god og ansvarlig bruk av AI, hvordan kan vi bruke teknologien til å styrke individer og menneskeheten, og hvordan lager vi en AI som tar gode valg?

- For eksempel, vi kan lage algoritmer som tar avgjørelser, og disse avgjørelsene kan påvirke folks liv, slik som om du får lån, eller blir vist en annonse for en ledig jobb, skriver hun på e-post til forskning.no.

En kunstig intelligens kan altså gjøre slike oppgaver. Men noen ganger er det nødvendig at det brukes skjønn som går ut over de rigide rammene, skriver Slavkovik og gir et eksempel.

- Noen valg er er mulige, men uønskede: Det er ikke ulovlig å kjøre på en katt ved et uhell, men det er høyst umoralsk å gjøre det.

- Vi trenger å muliggjøre at AI-systemer kan oppføre seg etisk, om vi skal bruke dem.

Forskere fra flere land forsøker å finne ut at hvordan de kan lære en maskin å skille mellom rett og galt. Den nye studien er et eksempel på en måte å gjøre det på, skriver Slavkovik.

- Vi trenger at mange forskere utforsker mulighetene før vi finner ut hva som virker og hva vi bør implementere. Men uansett om vi kan, så betyr det ikke at vi bør bygge maskiner som selv bestemmer om de skal drepe mennesker, dyr eller gjøre skade på andre måter, avslutter hun.

Referanse:

Patrick Schramowski, Cigdem Turan, Sophie Jentzsch, Constantin Rothkopf & Kristian Kersting: «The Moral Choice Machine», Frontiers in Artificial Intelligence, 20. mai 2020.