Annonse
«Den sorte boksen» er en metafor for de utilgjengelige utregningene som kan oppstå i systemer for kunstig intelligens. (Foto: Chingraph / Shutterstock / NTB scanpix)

Slik kan vi bruke kunstig intelligens på en forsvarlig måte

Kunstig intelligens kan gjøre fantastiske ting, men vi mennesker greier ikke alltid å se hvordan datamaskinene tar beslutninger. Fire forskere kommer med forslag til hvordan vi kan løse problemet.

Publisert

Kunstig intelligens er et populært emne innen forskningen for tiden. Selvsagt blant dataforskere, men også blant leger, jurister og filosofer. Og det er det god grunn til.

Det er nemlig et verktøy med fantastiske muligheter. Selvlærende algoritmer kan behandle enorme mengder data og kan derfor ofte ta bedre og raskere beslutninger enn vi kan selv.

– Det er en enorm fordel innen mange områder. Programmene kan behandle mye data veldig raskt, fortalte Tarek R. Besold, som er dataforsker ved University of London i Storbritannia, ved en minikonferanse organisert av Forskningsgruppen i teoretisk filosofi ved Københavns Universitet.

Historien kort

- Kunstig intelligens kan behandle store mengder data og lage effektive beregninger innen bl.a. medisin.
- Men teknikken er vanskelig å forstå, og det kan gi etiske problemer.
- Forskere mener derfor vi må gjøre den mer gjennomsiktig og tenke nøye på når den skal brukes.

Det er store muligheter innen blant annet diagnostisering av pasienter, risikovurdering av investeringsmuligheter i banker eller domsavgjørelser i rettssaler.

For eksempel har forskere klart å utvikle et system for kunstig intelligens som kan diagnostisere hjertefeil bedre enn hjertelegene.

Ved Harvard har forskere også laget et såkalt «smartmikroskop» som kan oppdage blodinfeksjoner med en treffsikkerhet på 95 prosent.

Kan ikke se begrunnelsen

Det høres ut som et fantastisk, teknologisk eventyr. Men det er et problem. Vi mennesker kan nemlig ikke alltid se hvordan datamaskinene treffer beslutninger.

Selv de som har utviklet programmene, har problemer med å finne ut hvordan de har nådd frem til et bestemt resultat.

For jo mer data system behandler, jo mer presise blir de, men også vanskeligere å forstå. Innen maskinlæring snakker man om problemet med «den svarte boksen».

At vi ikke kjenner til mekanismene kan være veldig problematisk når det kommer til beslutninger på sykehus, der feil kan være fatale, eller i rettssaler, der diskriminerende detaljer som bopel, inntekt eller etnisitet ikke skal påvirke dommen.

Gjennomsiktige eller forståelige systemer

En gruppe forskere var nylig samlet ved Københavns Universitet for å komme med sine forslag til en løsning på problemet.

Ifølge Tarek R. Besold kan vi gå to veier.

Vi kan enten sørge for å gjøre systemene:

  1. Gjennomsiktige: Noe som vil si at mennesker skal kunne gjennomgå alle utregninger og vurderinger. Ulempen med det er at det krever store ressurser.
  2. Forståelige: En annen mulighet er at systemet avleverer en slags begrunnelse, altså en indikasjon om hvordan den kom frem til svaret.

Det krever mindre tid og ekspertise, men det er vanskelig å få til med store og komplekse systemer.

Besold anbefaler løsning nummer to på sykehus.

– Leger arbeider allerede på denne måten når de snakker med pasientene. Hvis du har blitt testet for noe, forteller de hva resultatet er og litt om hvorfor, men de gjennomgår ikke hele den faglige prosessen i detalj, sier han.

Et system for kunstig intelligens lærte seg i 2016 å kjenne forskjell på ulver og hunder. På sett og vis. Det viste seg at den mente det var snakk om en ulv når det var snø på bildet. (Foto: Geoffrey Kuchera / Shutterstock / NTB scanpix)

Er det veldig store og komplekse systemer, foreslår han dessuten et separat system som er designet for å avkode hvordan det første systemet finner frem til svarene sine.

Filosof: De må basere seg på noe virkelig

Ifølge Emily Sullivan, som er postdoc i filosofi ved Det tekniske universitetet i Delf i Nederland, er det ikke nok at systemet gir oss et svar som lar oss forstå algoritmen som ligger bak.

Problemet er de mekanismene vi putter inn i systemet allerede fra begynnelsen.

– Problemet er ikke nødvendigvis at systemet ikke er gjennomsiktig, men at den forklaringen vi leter etter, ikke er der. Vi må sikre oss at maskinen regner på de riktige tingene, sier hun.

For eksempel designet en forskergruppe i 2017 et program som kunne vurdere om en person var heteroseksuell eller homoseksuell ut fra et bilde.

– Her har maskinen fått en urealistisk partiskhet fra starten av. Seksualitet er ikke binær, og derfor vurderer ikke maskinen noe som er relevant for virkeligheten, sier hun.

Samtidig kritiserer hun hele premisset for systemet, ettersom man ikke vet om ansiktstrekk henger sammen med seksualitet. Dermed vil prosessen være vanskelig å gjennomskue.

Kan ikke forklare menneskets handlinger

Ifølge danske Thor Grünbaum, som er førsteamanuensis i bevissthetsfilosofi ved Institut for Medier, Erkendelse og Formidling ved Københavns Universitet, stiller vi for høye krav til maskinene.

Vi krever nemlig en forklaring på en prosess som vi heller ikke forstår hos mennesker, sier han.

– Vi kan ikke forvente at bare fordi én ting skjer etter en annen, så forårsaker den første den andre, sier han.

– Derfor kan vi heller ikke rasjonalisere oss frem til den eksakte årsaken til en handling.

Innen filosofien kaller man det for «post hoc-rettferdiggjøring», altså å lete etter årsaken til en handling etter at den har skjedd.

Dansk filosof: AI må brukes med omhu

Grünbaum mener vi kanskje aldri vil løse problemet med den svarte boksen.

Men samtidig tror han ikke det blir noe stort problem.

– Det handler om å bruke kunstig intelligens der det virker best, og det gir mening. Er det store problemer ved ugjennomsiktighet på et bestemt område, må vi la være med å bruke teknologien der.

Kunstig intelligens er som et mikroskop

Rune Nyrup, som er filosof ved Leverhulme Centre for the Future of Intelligence, University of Cambridge i Storbritannia, mener at vi må tenke oss nøye om for å unngå å bruke teknologien feil.

Og så må vi vite hva vi leter etter når vi vil ha et system til å forklare valgene sine. Forklaringer kan nemlig være flere ting.

– Hvis jeg blir bedt om å forklare hvorfor en gepard kan innhente en gaselle, kan jeg gjøre det på to måter. Rent fysiologisk kan jeg vise hvordan kroppen til geparden fungerer, men jeg kan også forklare evolusjonært hvordan den har utviklet og tilpasset seg til nettopp den næringskilden i økosystemet, sier han.

På samme måte kan kunstig intelligens være laget for å nå frem til et svar på en bestemt måte, eller kanskje til og med ha en fordom, men det vet den ikke selv.

– Det gjør det vanskelig å plassere ansvar for beslutningene, og derfor må vi vite hvordan den kunstige intelligensen virker. Da kan vi velge å bruke den i sammenhenger der den ikke gjør valg som er diskriminerende eller ulovlige, sier han.

Han mener det er uheldig at hypen omkring teknologien får folk til å bruke snevre systemer til å løse generelle problemer.

– Det litt som da man fant opp mikroskopet. Det var flott, og det ga oss en masse nye opplysninger. Men det betyr ikke at alle leger skal renne rundt med et mikroskop hele tiden, sier han.

– Kunstig intelligens bør brukes når det har et formål og det fungerer bra, sier han.

Han nevner han et system som kan gjenkjenne føflekkreft.

– Det er et fantastisk pålitelig redskap som fungerer innenfor sin ramme, sier han.

Slik oppstår «den sorte boksen»

For å forstå hvordan den sorte boksen oppstår, må vi se nærmere på hvordan kunstig intelligente systemer fungerer.
En populær teknikk kalles dype nevrale nettverk (DNN). De fungerer ved at programmet lærer å finne det riktige svaret på et spørsmål.
I den ene enden av systemet sender forskeren inn et spørsmål eller problem. For eksempel ville en forsker lære systemet å se forskjell på hunder og ulver. Derfor sendes et bilde av en ulv inn i systemet.
Bildet inngår i et nettverk av stier som fører mot to ulike resultater – hund eller ulv.
Etter hvert som nettverket ser flere og flere bilder, justeres stiene. Det innebærer at systemet lærer hvilke kjennetegn som skiller hunder og ulver. Hver gang nettverket svarer riktig eller feil, får det en tilbakemelding som hjelper det til å bli mer presist.
Hvis den for eksempel lærer at en bestemt form i bildet øker sjansen for at det er snakk om en ulv, så tildeles stien der denne formen inngår, mer «vekt» i retning av svaret ulv. Men det gjør også at nettverket endres.
I takt med at systemet blir mer nøyaktig, endrer det på en rekke indikatorer, og til slutt kan vi ikke vite hva den baserer svaret på.

Ulve-nettverk fikk en fornemmelse for snø

Eksempelet med ulver og hunder er faktisk et system fra den virkelige verden, utviklet av tre studenter ved University of Washington i USA i 2016.
Programmet svarte ofte riktig, så det virket som det kunne se kjennetegn for nettopp hunder og ulver.
Men datamaskinen vurderte rett og slett bilder med snø, som bilder av ulver.
Endringer av algoritmen kan være vanskelige å oppdage i store og komplekse systemer. Og det kan være veldig problematisk.
Selv om snø for eksempel være en ganske god indikator for om et bilde inneholder en ulv, er det ikke direkte relevant. I andre sammenhenger kan det være ulovlig å følge slike indikasjoner.
Forestill deg for eksempel en datamaskin som dømmer i et rettssystem. Her kan det tenkes at bopel, inntekt og hudfarge kan tolkes som «gode indikatorer» på om en person er skyldig.
Men hvis den foretar valg på bakgrunn av disse detaljene, vil den utsette den dømte for diskriminering.

© Videnskab.dk. Oversatt av Lars Nygaard for forskning.no.

Powered by Labrador CMS