Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.

Tre menn programmerer på en datamaskin. Kjønnsbalansen innenfor tek-bransjen er svært skjev.

Kunstig intelligens: – Som leder skal man være oppmerksom på at det kan bli guttastemning

Innholdet er laget av menn. Algoritmene er laget av menn. Kan kvinnelige KI-forbilder snu trenden? 

Kunstig intelligens (KI) har tatt verden med storm. Det er mange utfordringer, men det er også stort potensial for å effektivisere i mange bransjer. 

Den siste tiden har det vært debatt om hvordan KI kan bidra til å forsterke fordommer og diskriminering ved at ordet sykepleier blir assosiert med kvinner og professor blir assosiert med menn. 

Fire personer som jobber med ulike sider av KI, deler sine synspunkter:

– Fraværet av kvinner i denne bransjen er påfallende og bekymringsfullt, sier professor Ingrid Glad ved Universitetet i Oslo (UiO).

Hun forsker på KI og mener det er utfordringer ved at få kvinner er med på å utvikle algoritmene.

– Det er viktig at kvinner ikke bare er med i beslutninger om og bruken av KI. Det er også viktig at de bidrar til det som er inne i algoritmene, sier hun.

Inne i kodene gjøres det viktige valg som reflekterer holdninger og verdier, og som er med på å avgjøre hvordan programmene lærer.

Ingrid Glad

Hun forteller at KI vil påvirke svært mange sider ved livene våre fremover.

– Det er viktig for utviklingen av KI at hele befolkningen er med, ikke bare halve. Utviklingen innebærer at vi må ta stilling til mange etiske spørsmål. Jeg tror dette er noe kvinner både er engasjerte i og interesserte i å delta i, sier Glad. 

Hun mener kvinner kan ha andre innfallsvinkler, andre behov og kanskje andre verdier og talenter.

Hva er en algoritme?

Algoritme er i matematikk og databehandling en fullstendig og nøyaktig beskrivelse av fremgangsmåten for løsning av en beregningsoppgave eller annen oppgave.

Kilde: Store norske leksikon

Håper på en Inga-effekt

Glad er optimist med tanke på fremtiden til tross for at det er anslått at det kun er sju prosent av programmererne som er kvinner på verdensbasis. 

Hun forteller at 80 prosent av artiklene som handler om forskning på KI, kun har mannlige forfattere. Likevel håper hun flere kvinner vil engasjere seg på området fremover.

Klas Pettersen deler Glads tanker. Han er leder for NORA, Norwegian Artificial Intelligence Research Consortium:

– Dersom kunstig intelligens blir for mannsdominert, påvirker det arbeidsmiljøet. Da kan vi gå glipp av mange talenter.

Som leder skal man være oppmerksom på at det kan bli guttastemning.

Klas Pettersen

Han sier det da også blir vanskelig å rekruttere kvinner. 

– Heldigvis har vi noen gode rollemodeller, slik som Ingrid Glad og fysiker Inga Strümke. Vi håper å se en Inga-effekt på rekruttering til KI-feltet, sier Pettersen.

«Brogramming» – internett er laget av menn

Petter Bae Brandtzæg er professor i medieinnovasjon ved UiO. Han sier det er et problem i tekbransjen at den er dominert av menn. 

– I miljøet kalles dette dels humoristisk og dels kritisk, for «brogramming». Altså programvareutvikling sterkt preget av stereotypiske maskuline normer, sier han. 

Store språkmodeller, som Gemini fra Google og ChatGPT fra Open AI, baserer seg på data hentet fra internett slik som nettleksikonet Wikipedia. 

– Dette innholdet er stort sett laget og skrevet av hvite menn. Det er anslått at kun ti prosent av innholdet på Wikipedia er skrevet av kvinner. Og dersom det er skjevheter i inndata, så vil du få skjevheter i utdata, sier Brandtzæg.

For å illustrere poenget forteller han om en chatbot utviklet av Microsoft i 2016. Den skulle læres opp med data fra Twitter. Tanken var å lage en chatbot som jenter kunne snakke med. 

I løpet av 16 timer med trening på Twitter ble den en kvinnehater som sa «I hate feminists».

– Dette ble hetende Tays lov: Shit in og shit out, som det heter, sier Brandtzæg.

Modellene fanger ikke alltid opp samfunnsendringer

Brandtzæg mener at det er en utfordring for språkmodellene at de ikke alltid tar opp i seg at samfunnet endrer seg. De er i stor grad trent opp på historiske data. 

Da vil også disse KI-modellene i liten grad ta opp i seg nye samfunnsbevegelser som «metoo» eller «blacklivesmatter». 

Et annet eksempel er at tittelen helsesykepleier historisk har vært en kvinnerolle. Språkmodeller kobler ikke nødvendigvis at sykepleier er en kjønnsnøytral stilling.

– Det man jobber med nå, er finjustering av modellene slik at de ikke har slike skjevheter. Vi er langt ifra fri for skjevhetene ennå, men jeg tror at vi kan komme dit. Det skjer mye positivt i modellene. Vi skal også huske på at også mennesker og samfunnet har kjønnsstereotypier, sier Brandtzæg.

Han tror at kanskje at algoritmene bli mer balanserte enn oss mennesker i fremtiden.

Pettersen forteller at det nylig har gått motsatt vei: Googles bildegenerator ble beskyldt for å gå for langt i den andre retningen:

– Algoritmene vil i utgangspunktet generere et bilde av en lege som en mannlig lege hvis vi ikke gjør noe med det. Så forsøker man å rette opp i skjevheten ved å påtvinge algoritmen til å vise bilder av kvinner og forskjellige etnisiteter. Det kan få litt absurde konsekvenser, sier Pettersen.

Kan kunstig intelligens bli for «woke»?

Da Google hadde lagt til inkludering, gav bildegeneratoren blant annet mørkhudete, kvinnelige paver.

– Det viser urealistiske historiske begivenheter, og det gjør at algoritmene blir dårlige. Dette skjer fordi datagrunnlaget er skjevt. Det skjer også fordi vi har en lang historie med å være et diskriminerende samfunn, sier Pettersen.

Google blir anklaget for å være woke. Dette er en kulturkamp som foregår, særlig i USA.

Klas Pettersen

Likevel er han optimistisk med tanke på KI:

– Datagrunnlaget viser en historisk skjevhet eller diskriminering. Men diskriminering kan også ligge i underbevisstheten til en offentlig saksbehandler. Det er lettere å gjøre noe med diskriminering i KI enn i hodet til en saksbehandler, sier Pettersen. 

Han forteller videre at diskrimineringen vi ser i KI, er det som har vært. Et annet spørsmål er hvordan samfunnet skal bli. 

KI kan bidra til å avdekke denne diskrimineringen.

Ulike språkmodeller for ulike politiske holdninger

Brandtzæg forklarer at dette er en pågående debatt, særlig på plattformen X og i USA. Hva KI-modellen representerer, er blitt en kamp om både politikk og ytringsfrihet.

– Mange mener ChatGPT ikke er nøytral, men venstrevridd og woke og at normene presenterer venstre liberale verdier i amerikansk politikk, forklarer han. 

Ifølge ham har gründeren Elon Musk derfor satset på å lage en språkmodell som skal være mer høyreorientert.

I dette bildet blir KI brukt politisk. Det blir en krig mellom ulike KI-modeller om hvilke verdier og ytringer som skal dominere.

Petter Bae Brandtzæg

Brandtzæg har blant annet vært kritisk til at ChatGPT er tatt inn i skolene i Oslo:

– Barn må ha lese og skriveferdigheten på plass før de kan håndtere slike mektige KI-verktøy. ChatGPT er knapt ett år gammelt. Vi vet ikke alt om fordeler og ulemper, og det er mange fallgruver. 

Han mener det er en stor ulempe at vi lener oss på kommersielle aktører i USA uten å ha kontroll på hva slags data som er i modellene. 

– Det er dessuten store etiske utfordringer knyttet til opphavsrett og feilinformasjon og et normsett i dataene og algoritmene som verken gjenspeiler norsk kultur eller normer, sier professoren.

Samtaleroboter oppleves tryggere enn mennesker

På ett område forteller Brandtzæg at samtaleroboter som ChatGPT kan ha en fordel fremfor mennesker: De kan oppleves tryggere i situasjoner hvor man trenger hjelp knyttet til mental helse. 

Han forteller at studier viser at ChatGPT ofte er flinkere til å tolke emosjoner enn mennesker. Derfor kan tjenesten gi mer balanserte råd. 

Forskning viser at unge opplever seg mer sett og hørt av ChatGPT enn av fageksperter.

– Samtaleroboter innenfor mental helse kan av mange oppleves tryggere å snakke med enn et menneske. De ikke har fordommer knyttet til om du har langt hår eller skinnjakke. Heller ikke om du sliter med ting du skammer deg over, sier Brandtzæg.

Skjevheter rammer dem som allerede er utsatt

Samtaleroboter som «hater feminister» eller bildegeneratorer som kun gir deg kvinnelige sykepleiere, er ikke det største problemet med KI.

– Feil bruk av KI i offentlig sektor kan få store skadevirkninger. Det rammer ofte dem som allerede er utsatt, sier professor i digital innovasjon, Margunn Aanestad ved UiO.

Hun har flere eksempler på at kunstig intelligens har fått negative konsekvenser:

– I Nederland ble KI tatt i bruk for å oppdage svindel med velferdsordninger. De ville flagge risikokandidater for trygdesvindel. En kombinasjon av design og hvilke parametre som ble lagt inn, slik som etnisitet, gjorde at 25.000–30.000 mennesker feilaktig ble merket som trygdemisbrukere, forteller Aanestad.

Hun forteller at det finnes mye forskning på hvordan KI tas i bruk. Selv har hun et prosjekt hvor hun følger Helfos prosess med å ta i bruk KI. Helfo er Helsedirektoratets ytre etat og forvalter årlig om lag 45 milliarder kroner.

Offentlig sektor må være forsiktige – men ikke for forsiktige

– Offentlig sektor bør være forsiktig, men ikke altfor forsiktig heller. Man må finne de områdene der det er potensial for å gjøre ting mer effektivt enn man gjør i dag, sier hun. 

Aanestad har vært imponert over Helfo med tanke på at det er en grundig prosess for å se på det juridiske handlingsrommet de har. De har kritisk vurdert hva de egentlig får ut av modellene.

Selv om det er utfordringer og fallgruver knyttet til KI, er det likevel enighet blant de fire: KI er kommet for å bli, og det vil endre samfunnet vårt. 

Å ikke ta i bruk et så potensielt godt verktøy vil ikke være et samfunnsgode. Men det må brukes med omhu. Det bør også være et mangfold blant dem som utvikler og påvirker utviklingen.

Powered by Labrador CMS