– Selv om det finnes tilfeller hvor diskriminering av AI-systemer enkelt kunne vært unngått, betyr ikke det at alle utfordringer rundt diskriminering er enkle eller for den del løsbare per i dag, skriver Michael Riegler, Pierre Lison, Inga Strümke og Anders Løland i dette svaret til Morten Goodwin.

For enkelt om kunstig intelligens:
– Diskriminerende og fordomsfull AI er ikke alltid lett å løse

DEBATT: Det finnes mange myter om kunstig intelligens (AI), og det er bra at eksperter avliver de misvisende av dem. Likevel må ikke budskapet overforenkles til det uvitenskapelige.

Både i sin kronikk og nylig utgitte bok, som hevder å avklare flere myter rundt AI, går Morten Goodwin i overforenklingsfella. Det er særlig påstander om at det er enkelt å unngå diskriminering, at forklarbarhet er enkelt og at personvernet ikke er i fare som er foruroligende. Alle disse temaene er komplekse og utfordrende å løse, ikke minst på grunn av deres etiske og samfunnsmessige dimensjoner. Sistnevnte kan ikke løsrives fra helheten, og må ikke undergraves.

Ser vi på de største AI-konferansene, er det nettopp emner som rettferdighet, pålitelighet og forklarbarhet som får økt oppmerksomhet – og det er bred enighet om at disse er langt ifra å være løst. For å gjenoppfriske noen av de påstått avlivede mytene om kunstig intelligens:

Vi forstår faktisk ikke hva enkelte AI-systemer gjør

Det at vi kan lese ut samtlige parametre i et AI-system eller teste det så mye vi måtte ønske, er ikke det samme som at vi forstår hvilke mønstre modellen har lært å fokusere på. Det finnes enkle AI-metoder vi forstår utmerket godt, men dette gjelder ikke de mest avanserte metodene som dyp læring. Vi kjenner algoritmene de er basert på, men kan ikke forklare hvorfor systemet tok beslutningen det gjorde.

Det er for eksempel særdeles vanskelig å forklare hvordan dype språkmodeller tilegner seg ulike lingvistiske trekk. Det vi derimot vet, er at slike systemer kan være ustabile og uforutsigbare: Samme data og arkitektur kan føre til vidt forskjellige modeller. Forståelse av hva systemene lærer og hvordan de fungerer, er et aktivt og voksende forskningsfelt av en grunn. Selv Google, som virkelig kan sies å være en tilhenger av strategien “move fast and break things”, har nylig skrevet en artikkel om hvordan denne typen svakheter utfordrer tilliten til moderne AI.

Hvis vitenskapshistorien lærer oss én ting, så er det at grunnleggende forståelse er essensielt for å ta riktige beslutninger. På kortere sikt trenger vi også å kunne forklare AI-systemer for å vurdere alt fra sikkerhet til rettferdighet. Dette bringer oss over på neste punkt.

Diskriminerende og fordomsfull AI er ikke alltid lett å løse

Selv om det finnes tilfeller hvor diskriminering av AI-systemer enkelt kunne vært unngått, betyr ikke det at alle utfordringer rundt diskriminering er enkle eller for den del løsbare per i dag. Når Morten Goodwin skriver at “når en AI diskriminer skyldes feilen alltid dataene vi har dyttet i den”, tar han feil. Fordommer kan snike seg inn i de fleste ledd av AI-baserte systemer og er ikke nødvendigvis begrenset til dataene som brukes. Tenk for eksempel om vi skulle utvikle et system for å predikere sannsynligheten for at en muslimsk tenåring vil bli kriminell i voksen alder. Fordommen ligger her i selve oppgaven; ikke i dataene som brukes.

Fordomsfull AI er komplisert, og inkluderer kulturelle og etiske utfordringer som AI-forskere og -utviklere må forholde seg til. AI-systemer oppstår ikke i et sosialt vakuum, men er utviklet av bestemte individer eller grupper. Diskriminering kan skje ved at noen demografiske grupper er ekskludert fra den teknologiske utviklingen, for eksempel de eldre eller språklige minoriteter.

Datagrunnlaget er en viktig faktor når AI-modeller produserer fordomsfulle utfall. Men dét betyr ikke at problemet er lett å løse! Dataskjevheter kan ta mange former og være vanskelig å oppdage. Videre har nyere forskning vist at AI-modeller kan forsterke eksisterende skjevheter og være enda mer diskriminerende enn de historiske dataene brukt til trening.

Kunstig intelligens er problematisk for personvernet

Å si at kunstig intelligens ikke gjør slemme ting med mindre menneskene bak har slemme hensikter, er AI-versjonen av “guns don’t kill people; people kill people”. Det blir som å si at våpenindustrien ikke har noe med væpnet vold å gjøre eller at det er trygt å produsere atomvåpen så lenge folk er snille. Nettopp på grunn av teknologiens iboende potensiale må vi forholde oss til det store bildet, hvor AI absolutt kan føre til personvernets død – i alle fall slik vi forstår personvern i dag – siden AI gjør det mulig å utlede opplysninger som ellers ville forblitt ukjente.

Dette er en utfordring både AI-forskere og myndigheter må forholde seg til. Det sentrale er ikke bare hvem som bruker systemene, men hvordan bruken kan gjøres trygg og pålitelig. Mange AI-forskere tar ansvar ved å ikke jobbe med algoritmer for militær teknologi eller ansiktsgjenkjenning. Å si at disse temaene ikke er problematiske fordi AI ikke gjør det av egen vilje, er i beste fall naivt og i verste fall farlig.

I mer modne felt som medisin er etiske standarder godt etablert. Forskere på AI, et langt yngre felt, må jobbe med etiske standarder og sikre disse for fremtiden. Flere store konferanser og miljøer er allerede i gang. Neural Information Processing Systems, en av de viktigste AI-konferansene, publiserer for eksempel vurderinger av «Etiske aspekter og fremtidige samfunnsmessige konsekvenser» i hver artikkel.

Morten Goodwin skal ha ros for å ville forklare folk flest hva kunstig intelligens egentlig er for noe, men han går dessverre av og til i overforenklingsfella.

Powered by Labrador CMS