Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.

Den førerløse bussen Mads kjører uten sjåfør langs havnepromenaden i Oslo, fra Vippetangen til Kontraskjæret. Bussen er et eksempel på kunstig intelligens som funker, men det er ikke bestandig teknologien gjør som vi vil. (Foto: Eivind Torgersen/UiO)

Derfor gjør kunstig intelligens fortsatt enkle feil vi mennesker aldri ville gjort

Kan vi være trygge på at en selvlært kunstig intelligens faktisk «ser» det vi vil at den skal se?

Hvert 20. minutt kjører nå en førerløs liten buss langs havnepromenaden i Oslo. Med en toppfart på 25 kilometer i timen frakter den passasjerer fra Vippetangen til Kontraskjæret.

Førerløse biler er kanskje det mest nærliggende å tenke på når det er snakk om kunstig intelligens (KI). Både når vi snakker om hva som er bra med det – og når vi snakker om hva som kan gå galt uten mennesker bak rattet eller spakene.

Bilene er selvfølgelig lært opp til å klare seg i trafikken, men det mest revolusjonerende er at de skal lære mens de kjører og dermed bli enda bedre sjåfører etter hvert.

Kunstig intelligens på sykehus og legekontor

Langt fra alle kunstige intelligenser er like synlige som en bil du kan risikere å støte på i trafikken.

Og de er ikke bare i stand til å erstatte mennesker. En kunstig og selvlærende intelligens kan også erstatte tradisjonelle data-algoritmer i for eksempel MRI-skannere som lager bilder av hjernen din.

Og i fjor godkjente det amerikanske Food and Drug administration (FDA) bruk av kunstig intelligens til å avsløre lidelsen diabetisk retinopati. Dette er en sykdom på netthinnen som rammer diabetikere.

– Dette er revolusjonerende, sier matematiker Anders Hansen.

Han er professor ved Universitetet i Oslo, men tilbringer mesteparten av tiden sin ved University of Cambridge, der han leder sin egen forskningsgruppe på kunstig intelligens.

– Det betyr at man nå kan benytte dette i kommersiell sammenheng, sier Hansen.

Diabetespasientene kan da komme til klinikken og ta et bilde av øyeeplet. Men det er ikke en lege eller optiker som analyserer bildet. Det er en kunstig intelligens-algoritme som spytter ut et svar basert på hva den selv har lært seg å se etter.

Enten er netthinnen frisk eller så er den rammet av diabetisk retinopati.

– Den er bedre enn meg, og jeg er en veldig erfaren netthinne-spesialist, sier oppfinneren Michael Abramhoff til nettavisen NPR.

Hva er kunstig intelligens?

Kunstig intelligens (KI), på engelsk artificial intelligence (AI), er datasystemer som kan gi en mest mulig intelligent oppfattelse, resonnering og respons. Det kan være systemer som brukeren har glede av på en datamaskin, i produkter fra elektromarkeder eller de inngår i en mekanisk robot i en eller annen form.

(Kilde: «Hva er kunstig intelligens» av Jim Tørresen)

Vet ikke hva den kunstige intelligensen gjør

Den kunstige intelligensen som vurderer bildene av diabetikernes øyne, er altså treffsikker nok til at FDA synes det er greit. Det vil si at den gjør det minst like bra som en menneskelig vurdering.

Men kunstige intelligenser kan også oppføre seg på måter som et menneske aldri ville gjort.

– Vi vet faktisk ikke helt hva den kunstige intelligensen gjør, sier Anders Hansen.

Hans forskning går ut på å vise hva de faktisk gjør.

– Og det kan se ut som de fanger opp helt andre ting enn det mennesket fanger opp.

Dyp læring

Anders Hansen er professor II ved Matematisk institutt ved Universitetet i Oslo og har sin egen forskergruppe ved University of Cambridge. (Foto: Eivind Torgersen/UiO)

Det er fordi den kunstige intelligensen skiller seg fra en tradisjonell data-algoritme.

Sistnevnte er enkelt sagt en oppskrift som spytter ut et svar når den får informasjon inn. Et svar som er helt forutbestemt og avhengig av hva du har fortalt at den skal gjøre.

En kunstig intelligens er også en algoritme, men mye mer avansert.

– Det som er annerledes med en kunstig intelligens-algoritme, er den skal lære av tidligere erfaring. Basert på denne læringen skal den ta en input og gjøre noe annet, sier Hansen.

Først går den gjennom en intensiv treningsleir. Der skal den forhåpentligvis lære seg det du ønsker at den skal kunne.

– Når læringen er gjort, har man en ferdig algoritme. Denne algoritmen kan lære mer og mer etter hvert, men det er den første læringen som er den viktigste. Det er den store forskjellen, sier Hansen.

Siden 2012 er det det som kalles dyp læring som har vært den dominerende metoden for å lære opp de kunstige intelligensene. Og der, i dette dypet, er det ikke så lett å vite hva som foregår.

– Vi vet ikke helt hvordan læringsmekanismen foregår i den kunstige intelligensen, og det er det vi forsøker å finne ut av, sier Hansen.

Det er ikke nødvendigvis så lett.

Føflekk til besvær

Hansen og kollegaene hans setter kunstige intelligenser på relativt enkle prøver for å se hvor lærenemme kan være. Noen ganger kommer de med helt merkelige svar, for eksempel når de skal gjenkjenne forskjellige dyr eller når de får servert svart-hvite bilder med horisontale og vertikale striper.

En litt mer komplisert variant er en kunstig intelligens som er trent opp til, som altså har lært seg, å avgjøre om en føflekk er ufarlig eller om den kan være ondartet. Bare ved å analysere et bilde.

Da er det veldig viktig at den faktisk leser bildet riktig. Akkurat det samme er helt nødvendig i et annet felt av kunstig intelligens-utviklingen, talegjenkjenning. Hvis du skal få et fornuftig svar fra Siri eller Alexa på mobilen din, må hun først oppfatte hva du faktisk ber henne om.

Tester viser at den kunstige føflekk-intelligensen stort sett vurderer helt riktig. Det rare er at den er veldig sikker også når den tar feil. Og at det virker helt vilkårlig akkurat hvorfor og når den tar feil.

Når forskerne vippet bare bitte litt på bildet, kunne den kunstige intelligensen endre oppfatning. Fra å være veldig sikker på at føflekken var harmløs, til å bli veldig sikker på det motsatte.

– Vi forstår ikke helt hva den har klart å gjenkjenne, for bildet er akkurat det samme, forteller Hansen.

– Det som er vår tese, er at det finnes en falsk struktur i bildet. Noe som ligger i bildet og som mennesket ikke klarer å oppfatte, men som maskinen oppfatter og finner, sier han.

Hvordan vet vi hva den lærer?

En slik falsk struktur vil ikke oppdages av et menneskelig øye.

– For maskinen er ikke bildet annet enn tall som kommer inn, forklarer Hansen.

Så det er ikke lett å oppdage de mulige feilene for oss som leser bilder på en helt annen måte.

Men for å vise hva som er problemet med falske strukturer, må vi likevel bruke et eksempel som vi også kan se.

Sett at du skal lære deg et fremmed språk og får se en samling med bilder som alle akkompagneres av dette språkets ord for «sykkel». Alle bildene viser sykler i ulike varianter, men de er også alle utstyrt med en grønn strek.

Ved hjelp av disse bildene skal du lære ordet «sykkel» på et fremmed språk. Men hva om du tror ordet betyr «grønn strek»? (Foto: Eivind Torgersen/UiO)

Etter denne treningsprosessen slippes du, eller den kunstige intelligensen, løs på lignende bilder og svarer hver gang «sykkel».

Men kan du være sikker på at det er sykkelen som blir kjent igjen? Hva om den kunstige intelligensen kobler ordet til «horisontal grønn strek». Eller bare «grønn strek». Eller bare «strek». Eller noe helt annet, til og med.

Den grønne streken er et eksempel på en falsk struktur. Det kan også være andre slike i sykkelbildene, ting som ikke er synlige for oss, men som en kunstig intelligens biter seg merke til.

Det er noe slikt Hansen og kollegaene hans tror skjuler seg i føflekkbildene. Noe som får den kunstige intelligensen til å endre oppfatning.

Dette er bare ett av mange eksempler Hansen trekker frem der en kunstig intelligens gjør tilsynelatende enkle feil. Feil vi mennesker aldri ville gjort.

– Det er helt opplagt at den kunstige intelligensen «tenker» helt annerledes enn den menneskelige hjernen, sier Hansen.

Splittelse i KI-miljøet

Siden den kunstige intelligensen er så annerledes, kan den ikke-menneskelige oppførselen også gi andre uheldige konsekvenser. For eksempel ved at den kan lures.

Dette kan potensielt utnyttes av svindlere for eksempel i helsevesenet eller i forsikringssaker.

Slike usikkerheter har, ifølge Hansen, ført til en stor splittelse i forskermiljøet som sysler med kunstig intelligens. Noen har hevdet at maskinlæring for øyeblikket kan sammenlignes med middelalderens alkymi. Noe som har gjort andre dødelig fornærmet.

Anders Hansen er blant dem som maner til litt forsiktighet.

– Nå må vi tenke litt på dette før vi introduserer det i stor skala, sier han. – Hvis vi kan påvise feil i veldig enkle bilder, hvordan vil det da være i mer komplekse bilder?

Det betyr ikke at han vil stoppe eller bremse forskningen på kunstig intelligens. Det tror han ikke er mulig.

Diabetes-avgjørelsen til FDA viser for eksempel at kunstig intelligens er på full fart inn i helsetjenestene.

– FDA er jo seriøse. Når de godkjenner bruk av kunstig intelligens, er det basert på en ordentlig vitenskapelig undersøkelse. På samme måte som et medikament som skal ut på markedet, sier Hansen.

Den nevnte føflekktesten kan også bli sett på som samfunnsnyttig fordi den er minst like treffsikker som et menneske. Selv om den også tar feil noen ganger. Og selv om man ikke skjønner helt hvorfor den tar feil.

– Da har man funnet en enkel gjenkjennelsesalgoritme som fungerer bra nok for praktiske formål, selv om den ikke er i nærheten av hva et menneske kan gjøre.

Kan skje i morgen eller om 500 år

Veien videre avgjøres ikke bare av matematikere og programmerere. Det handler like mye om politikk, personvern og kommersielle interesser.

– Det amerikanske militæret bruker enorme summer på dette nå.

– Kunstig intelligens er definitivt kommet for å bli, sier Hansen.

Men han tør ikke spå hvor fort eller i hvilken retning veien vil gå.

– Vi vet ikke om det kommer et stort gjennombrudd i morgen eller om vi må vente 500 år på neste skritt.

Powered by Labrador CMS