Annonse

Denne artikkelen er produsert og finansiert av Høyskolen Kristiania - les mer.

Dagens KI gir ofte svar med innebygde fordommer.

Slik kan vi forhindre at KI gir svar med innebygde fordommer

For å utvikle god kunstig intelligens er det nødvendig å inkludere ulike menneskers perspektiver. – Mangfold er nøkkelen til innovasjon, mener forsker.

Publisert

FN kaller generativ kunstig intelligens en kreativ revolusjon. Den endrer selve grunnlaget for jobbene våre slik internett gjorde da det ble introdusert i 1993.

Samtidig har vi fått med oss at språkmodeller basert på KI, som ChatGPT, kan ha uheldige fordommer, såkalte bias. De bør derfor brukes med forsiktighet. 

Flere slike bot-er tar for eksempel for gitt at leger er menn og sykepleiere kvinner. Det handler om at chatboten har lært at det er flere mannlige leger og flere kvinnelige sykepleiere i verden. Den er matet med denne informasjonen. 

I årene fremover vil det bli utviklet KI-baserte løsninger for nær sagt alle arenaer av livet. Viljen til innovasjon blomstrer. 

Hvordan kan vi forhindre at KI gir svar med innebygde fordommer? Eller svar som virker polariserende?

Algoritmer som er objektive og rettferdige

Anthony Giannoumis er forsker ved avdeling for økonomi, innovasjon og teknologi på Høyskolen Kristiania. Han mener at mer mangfold blant de som utvikler og tester KI-løsninger, vil bidra til at vi får færre slike uheldige konsekvenser.

– Det beste og mest kostnadseffektive er om vi får lagt inn algoritmer uten bias helt fra start. Da slipper vi å trekke tilbake produkter for å endre dem etter at de har gått ut på markedet, sier han.

Portrett av forsker Anthony Giannoumis.
Forsker Anthony Giannoumis mener at mer mangfold blant de som utvikler og tester KI-løsninger vil bidra til at vi får færre slike uheldige konsekvenser.

– Derfor må vi ha mangfoldige team involvert i utviklingen av all KI-basert teknologi. Vi må utvikle en skjerpet bevissthet rundt perspektivene til ulike grupper og potensielle konsekvenser innenfor ulike situasjoner.

Som eksempel nevner han biometri. Det er biologiske målinger som brukes til å kjenne igjen mennesker basert på fysiske egenskaper. 

Ansiktsgjenkjenning har for eksempel vist seg å være vanskeligere på mennesker med mørk hud. Grunnen er at programmene er laget med utgangspunkt i lysere hudtyper.

Farlig biometri

– I noen land og i noen situasjoner kan biometri gi direkte farlige resultater. Tenk deg at et slikt program  for ansiktsgjenkjenning identifiserer deg som et annet kjønn enn det du har oppgitt. I Norge er det kanskje ingen «big deal», men i land der det å være transkjønnet er ulovlig, kan det være helt krise, sier Giannoumis.

Et KI-system er alltid designet for å kunne forutsi noe. Det skjer på bakgrunn av algoritmer som noen har definert. 

Hvis de som lager systemet anerkjenner og legger inn to kjønn – mann og kvinne – er det lett å se for seg at enkelte personer kan havne i en kategori der de ikke føler de hører hjemme.

Giannoumis forteller at stemmebaserte tjenester ofte fungerer bedre for menn enn for kvinner. 

Og hva skjer når en tjeneste er stemmebasert og du har talefeil eller du snakker på et annet språk enn morsmålet ditt – får du gjennomført ærendet ditt? Kan du delta i samfunnet på lik linje med andre?

Slike problemstillinger jobber Giannoumis med for tiden. Han brenner for inkludering. Det handler ikke bare om kjønn eller etnisitet, men om mangfold i bred forstand.

Hva er bias innen kunstig intelligens (KI)?

Kunstig intelligens bygges opp av algoritmer og gjennom maskinlæring. KI-systemer gir iblant svar og resultater som reflekterer og viderefører menneskelige fordommer, inkludert historisk og nåværende sosial ulikhet. Det er denne skjevheten og disse fordommene vi kaller bias. 

Bias kan finnes i de opprinnelige treningsdataene som forskerne legger inn for at maskinene skal øve, de kan ligge i algoritmen eller i forutsigelsene som algoritmen produserer.

Hvis  ikke bias blir fjernet fra systemet, kan det forhindre folks mulighet til å delta i økonomien og samfunnet. Det reduserer også KI-teknologiens potensial. Bedrifter kan ikke dra nytte av systemer som produserer forvrengte resultater og fremmer mistillit blant fargede, kvinner, personer med funksjonsnedsettelser, LHBTQ-samfunnet eller andre marginaliserte grupper.

Kilde: IBM

Vi er sjelden klar over egne bias

Som regel er vi ikke bevisst de ting vi tar for gitt. Normer og forutinntattheter ligger så innbakt i ryggraden at vi ikke stiller spørsmål ved dem. Vi er med andre ord sjelden klar over våre egne bias. 

Det krever innsikt, erfaring og tilgang til nye perspektiver om vi skal få ristet dem av oss. Flere forskere har pekt på nettopp bias som en av de største utfordringene vi står overfor når det gjelder KI. Grunnen er at det å gjenkjenne fordommer og forhindre eller redusere effekten av dem er krevende.

Teamene som utvikler ulike typer teknologi, må både mestre datavitenskapelige teknikker og ha en metaforståelse for sosiale forhold og krefter.

Nå utvikler Giannoumis en ny modell. Den skal hjelpe folk til større bevissthet rundt mangfold og bias når de utvikler eller bruker KI-systemer.

– Jeg har tatt utgangspunkt i hvordan vi tror bias sniker seg inn i KI-systemer. Hva er det viktig at folk tenker gjennom? Hva skal vi gjøre når vi oppdager bias? Kan vi begrense effekten? Hvis det er mulig, vet vi hvordan vi skal gjøre det uten å skape nye bias? Hvem er menneskene som sjekker? Hva legger de inn som nye data?

Regler for utvikling av KI

EUs lov om kunstig intelligens skal sikre grunnleggende rettigheter og trygg bruk. Samtidig skal den fremme innovasjon. 

Det betyr at hvert land må følge denne loven når de utvikler og tester systemer før de introduseres i markedet. Gründere får dermed tilbakemeldinger og kan rette opp feil mens de utvikler produktene sine.

Giannoumis mener det er viktig å følge med på hvordan KI utvikles og brukes i en bedrift. For målet med EUs regler er at både bedrifter, kunder, ansatte og samfunnet skal få noe positivt ut av det.

Mangfold kan motvirke bias

Anthony Giannoumis mener at en av metodene for å motvirke bias er å sørge for mangfoldige team. Slik får vi inn flere perspektiver.

– Vi må innse at det er et gap mellom det vi tror vi gjør og det vi faktisk gjør i arbeidslivet, sier han.

Da han i fjor gjennomførte en studie blant bedriftseiere, mente 72 prosent at deres selskap utmerker på inkluderende ledelse. Samtidig oppga 60 prosent at de manglet opplæring eller ressurser innen feltet.

Regjeringen har som mål at vi skal lykkes med å styrke konkurransekraften, innovasjonsevnen og den sosiale og økonomiske bærekraften. 

I Utsynsmeldingen sier regjeringen at befolkningens kompetanse er Norges viktigste ressurs.

Vi vet at Norge allerede mangler viktig kompetanse og at vi importerer mye arbeidskraft. Evner vi å benytte oss av alt de bringer med seg av kunnskap, erfaring og perspektiver?

Vi må dra nytte av folks varierte perspektiver

Giannoumis er amerikaner med greske foreldre. Han har gjennomført forskning på fire kontinenter og har bodd tretten år i Norge. Her har han tatt en doktorgrad ved Universitetet i Bergen. 

Forskningen hans har tatt for seg mange typer manglende integrering. En av dem er at internettbaserte tjenester fortsatt er utilgjengelig for mange med funksjonsnedsettelser. Det skjer på tross av innsats fra nasjonale myndigheter, FN og EU.

Han mener vi har et uutnyttet potensial her til lands. Vi må tenke mye bredere rundt begrepene mangfold og inkludering enn det vi gjør i dag.

– Skal vi lykkes med innovasjon og være konkurransedyktig i fremtiden, må vi utvide vår forståelse av begrepet inkludering, sier han.

 – Når jeg snakker om mangfold, handler det ikke bare om kjønn eller etnisk tilhørighet. Jeg tar med folks perspektiver. Vi er nødt til å ta inn over oss at menneskers varierte erfaringer er noe av det viktigste de kan bringe til bords. Jeg har mye å lære av en person som er født blind eller sitter i rullestol. Deres levde liv påvirker både hva de gjør og hvordan de tenker, sier forskeren.

Vi blir mer kreative med flere perspektiver

Hvis alle tenker likt, er vi mindre kreative. Evnen til innovasjon vil være en betydelig konkurransefordel fremover i en tid der evnen til å tilpasse seg og være kreativ er avgjørende for mange virksomheter. 

Da må ledere se potensialet i å skape et inkluderende miljø der alle stemmer blir hørt og verdsatt, mener forskeren.

– Det er naturligvis mye enklere og raskere å samarbeide når alle i et team tenker mer eller mindre likt. Kommunikasjonen flyter lettere og man kan raskere vise resultater. Men et mer mangfoldig team vil uten tvil komme opp med flere ulike ideer til løsninger og på sikt prestere bedre, sier Giannoumis.

Referanser:

Utsyn over kompetansebehovet i Norge. Stortingsmelding 14 (2022–2023)

Shedding light on AI bias with real life examplesKort artikkel, IBM Think, 2023.

Embracing generative AI revolution Embracing the Generative AI Revolution: A Creative Evolution in the Workplace. Blogginnlegg,  FNs program for global utvikling, 2023.

Artificial Intelligence Act: MEPs adopt landmark law. Pressemelding, Europaparlamentet, 2024.

Noen trinn for å forhindre bias:

1. Vurder datasettet som ligger til grunn:

Sjekk om treningsdataene over- eller underrepresenterer visse grupper. Hvis treningsdata for ansiktsgjenkjenning i hovedsak består av hvite mennesker, kan det føre til feil ved gjenkjenning av fargede personer.

2. Merk informasjonen riktig:

Feilmerking av treningsdata kan føre til bias. Et KI-basert rekrutteringsverktøy som er inkonsekvent i merkingen eller ekskluderer/overrepresenterer visse egenskaper, kan for eksempel gjøre at kvalifiserte jobbsøkere blir luket vekk fra bunken av aktuelle kandidater.

3. Sjekk om algoritmene inneholder bias:

Bruk av feil treningsdata kan føre til algoritmer som gjentatte ganger produserer feil eller urettferdige resultater. Et eksempel kan være at man bruker inntekt som en indikator og dermed utilsiktet diskriminerer innvandrere (som er overrepresentert blant dem med vedvarende lav inntekt). Kontroller om der er programmeringsfeil som kan skyldes utviklernes egne bevisste eller ubevisste bias, og sørg for rettferdig vektlegging av faktorene algoritmen tar sine beslutninger på.

4. Vurder den menneskelige påvirkningen:

Menneskers erfaringer og preferanser kan påvirke hvordan vi velger og vekter data. Vi har bedre muligheter for å kjenne igjen og undersøke hvordan teknologien skapes og hvordan den påvirker samfunnet hvis vi:

a) er bevisst menneskelige faktorer

b) er bevisst systemiske samfunnsmessige faktorer

c) tar alle former for potensiell bias i betraktning.

Denne bevisstheten øker når vi samarbeider med mennesker med en annen bakgrunn, andre forutsetninger og andre perspektiver enn oss selv.

Kilde: IBM og Anthony Giannoumis

forskning.no vil gjerne høre fra deg!
Har du en tilbakemelding, spørsmål, ros eller kritikk? TA KONTAKT HER

Powered by Labrador CMS