Fra helsefremmende teknologi til personlige assistenter – det
er ingen tvil om at kunstig intelligens (KI) kan hjelpe oss på utallige måter. Men hjelper den egentlig alle likt?
– Man kan si at KI har en tendens til å bruke en slags «trynefaktor», svarer Elisabeth Wetzer, førsteamanuensis ved UiT Norges arktiske universitet sin maskinlæringsgruppe og
SFI Visual Intelligence.
Hun er KI-ekspert og forteller om en utfordring med KI-teknologi: Den kan behandle personer av ulikt kjønn forskjellig. KI-systemer kan foretrekke jobbsøknader skrevet av menn. De kan gi lavere kredittgrenser til kvinner. Og de kan kjenne igjen færre kvinnelige ansikt.
Hva får en algoritme til å bli så skjev, at den handler på en måte som favoriserer eller diskriminerer basert på kjønn?
Data kan forsterke fordommer og stereotypier
KI er trent på enorme mengder data. Chatboter som ChatGPT,
DeepSeek, og Elon Musk sin Grok er basert på millioner av bilder, videoer og
tekster fra internettet. Store datamengder er helt grunnleggende for at KI skal utføre en
bestemt oppgave.
Men data er historiske. Det betyr at de kan gjenspeile
fordommer og utdaterte stereotypier gjennom tiden. Blant annet knyttet til
kjønn.
– Om du ser gjennom et datasett fra det siste århundret, vil
man fort finne enkeltgrupper som har blitt diskriminert mot på grunn av kjønn,
seksuell legning eller hudfarge. Siden KI er lagd for å finne sammenhenger og
mønstre i data, er det en risiko for at systemene kan plukke opp og forsterke
skjevheter i datasettet, sier Wetzer.
Konsekvensene av dette kan bli store, særlig for
marginaliserte og underrepresenterte grupper.
– La oss si man har et kredittvurderingssystem som skal
vurdere hvor mye en person får i lån. Dersom systemet er basert på
lønnsstatistikk fra de siste seksti årene, kommer det til å se at det er stort
lønnsgap mellom kvinner og menn, forklarer hun.
– Da vil systemet tro at kvinner er mindre økonomisk
ansvarlige enn menn og derfor mindre egnet til å få innvilget et lån. Slik har
det lært seg en skjev og ukorrekt kobling mellom kjønn og inntekt.
Bør KI være kjønnsblind?
Hvis det er en risiko for at KI feilaktig bruker kjønn til å
behandle folk ulikt, betyr det at systemene bør utvikles til å bli
kjønnsblinde?
Det kommer an på hva de skal brukes til, svarer Wetzer. I
noen tilfeller kan kjønn være aktuelt for et KI-system å ta hensyn til.
– For eksempel forekommer noen sykdommer hyppigere hos
kvinner enn menn. Da vil man ikke ha et system som bevisst ignorerer personens
kjønn når det skal oppdage slike sykdommer.
– Dersom informasjonen har betydning for beslutningen den
skal ta, er det viktig at kjønn ikke utelates. Men en algoritme bør aldri bruke
denne informasjonen til å bestemme hvor egnet noen er til å få innvilget et
lån, sier hun.
Dessverre er det ikke alltid enkelt å utvikle systemer som
ikke tar hensyn til dette. Det er fordi de er flinke til å fange
opp sammenhenger som man ikke ante fantes i dataene. Et KI-verktøy fra
Amazon lærte blant annet å ignorere jobbsøknader som nevnte universiteter som
var forbundet med kvinner.
Manglende representasjon i data
I dagens samfunn er det viktig at alle mennesker
representeres likt, noe som også gjelder for datagrunnlaget KI-systemene baseres
på. Hvem som er representert i dataene eller ikke har mye å si for hvem KI
fungerer bedre eller dårligere på.
– Dersom en enkeltgruppe av mennesker ikke er like godt
representert som andre i datasettet, vil systemet fungere dårligere på den
spesifikke gruppen, sier Wetzer.
Trenes KI på for eksempel bilder av mannlige professorer, vil den tro at yrket er forbeholdt menn. KI-utviklere bør derfor være bevisst på representasjonen i datasettet, for eksempel når man utvikler systemer som
skal utføre oppgaver som har betydning for folks helse.
– For eksempel kan et verktøy for kreftdiagnostikk være
utviklet i et velstående land som har råd til det. Mange vil tro at slike
systemer fungerer like bra på alle, men noen grupper kan kanskje aldri ha vært
en del av treningsdataene. Et slikt verktøy vil sannsynligvis ikke være like
god på å oppdage kreft hos disse menneskene, sier Wetzer.
«Woke» KI
Likevel kan jaget etter lik representasjon gå for langt. I
fjor ble Gemini, Googles bildegenerator, beskyldt for å være «woke» etter den lagde bilder av tyske soldater fra 1943 med afrikansk og asiatisk
utseende.
– Dersom man spør KI om hvordan noe var i Tyskland
før i tiden, blir det feil av den å anta at det var et stort mangfold i
befolkningen på den tiden. Her ser man at generatoren har aktivt prøvd å være
mer mangfoldig og skapt noe som åpenbart ikke gir mening, sier Wetzer.
Skjev kjønnsbalanse
Skjevhetene i KI fins ikke bare i treningsdata. Kun 30
prosent av de som jobber med KI globalt, er kvinner. Det betyr at systemene ofte
utvikles av menn. Det kan sette store preg på maskinene.
– Det er mange ting man må ta hensyn til når man utvikler
KI, for eksempel hvilke treningsdata, nevrale nettverk, og parametre man skal
bruke. Disse beslutningene gjøres alltid av noen, og dagens arbeidskraft er
ikke spesielt mangfoldig, sier hun.
Utvikles KI av bare én enkeltgruppe, er det en risiko for at
teknologien baserer seg på hvordan gruppen forstår, opplever, og fortolker
verden. Dette er svært sjeldent en bestemt handling og skjer som oftest uten av
utviklerne selv er klar over det.
– Flere studier viser at teknologien formes av de som lager
den. Da kan det hende at en enkeltgruppe glemmer å ta høyde for andre
menneskers perspektiver og opplevelser rundt kjønnsdiskriminering eller
rasisme.
Etterlyser flere kvinnelige rollemodeller
Akademia og arbeidslivet innen KI bør derfor gjenspeile
mangfoldet i samfunnet, mener Wetzer. Økt fokus på inkludering er en viktig nøkkel
for å skape KI-teknologi som fungerer like godt på alle.
– Det er helt avgjørende at andres synspunkter og erfaringer
er med i utviklingen av KI, understreker hun.
Hun har tro på at feltet kommer til å bli mer mangfoldig.
Likevel er det flere tiltak som må til for å motivere jenter og kvinner til å
studere, utvikle og forske på KI.
– Vi må skape interesse for teknologi og realfag i ung
alder. Det er viktig at jenter er bevisste over karrieremuligheter innen
realfag på lik linje som gutter. Vi trenger også gode rollemodeller som kan
inspirere dem til å studere og jobbe med KI. Derfor bør vi kaste lys over
kvinnelige forskere og deres bidrag til feltet, sier Wetzer.S
KI-regulering er nødvendig
I fjor ble verdens første KI-lov vedtatt i EU. Den stiller
strenge krav til ansvarlig utvikling og bruk av KI i Europa og Norge. Hele
lovverket skal være innført i Norge innen 2026.
Mangel på slike retningslinjer kan bidra til å forsterke
sosiale og økonomiske forskjeller blant ulike grupper mennesker. Wetzer er
derfor positiv til KI-forordningen og mener den er et viktig steg mot
utviklingen av mer trygg og rettferdig KI.
– Jeg mener den vil gi oss grundige retningslinjer for
hvordan systemene bør utvikles og testes før de tas i bruk, slik som når man
tester nye medisiner. Der er det tydelige prosesser som man må gjennom før
medikamentene kan brukes og selges, og det samme bør gjelde KI, forteller
Wetzer.
– Forordningen vil oppfordre utviklere og forskere til å
tenke over hvordan systemene bør utvikles av hensyn til grunnleggende etiske
prinsipper. Det er viktig at KI-systemer fremmer mer enn bare bedriftenes
interesser, avslutter hun.
Fikk du med deg disse artiklene fra UiT Norges arktiske universitet?
forskning.no vil gjerne høre fra deg!
Har du en tilbakemelding, spørsmål, ros eller kritikk? TA KONTAKT HER