Denne artikkelen er produsert og finansiert av Høyskolen Kristiania - les mer.
Dagens KI gir ofte svar med innebygde fordommer.(Foto: Annie Spratt / Unsplash)
Slik kan vi forhindre at KI gir svar med innebygde fordommer
For å utvikle god kunstig intelligens er det nødvendig å inkludere ulike menneskers perspektiver. – Mangfold er nøkkelen til innovasjon, mener forsker.
FN kaller generativ kunstig intelligens en kreativ
revolusjon. Den endrer selve grunnlaget for jobbene våre slik internett gjorde da det ble
introdusert i 1993.
Samtidig har vi fått med oss at språkmodeller basert på KI, som ChatGPT, kan ha uheldige fordommer, såkalte bias. De bør derfor brukes med forsiktighet.
Flere slike bot-er tar for eksempel for gitt at leger er menn og sykepleiere kvinner. Det handler om at chatboten har lært at det er flere mannlige leger og flere kvinnelige sykepleiere i verden. Den er matet med denne informasjonen.
I årene fremover vil det bli utviklet KI-baserte løsninger for nær sagt alle arenaer av livet. Viljen til innovasjon blomstrer.
Hvordan kan vi forhindre at KI gir svar med innebygde fordommer? Eller svar som virker polariserende?
Algoritmer som er objektive og rettferdige
Anthony Giannoumis er forsker ved avdeling for økonomi, innovasjon og teknologi på Høyskolen Kristiania. Han mener at mer mangfold blant de som utvikler og tester KI-løsninger, vil bidra til at vi får færre slike uheldige konsekvenser.
– Det beste og mest kostnadseffektive er om vi får lagt inn algoritmer uten bias helt fra start. Da slipper vi å trekke tilbake produkter for å endre dem etter at de har gått ut på markedet, sier han.
– Derfor må vi ha mangfoldige team involvert i utviklingen av all KI-basert teknologi. Vi må utvikle en skjerpet bevissthet rundt perspektivene til ulike grupper og potensielle konsekvenser innenfor ulike situasjoner.
Som eksempel nevner han biometri. Det er biologiske målinger som brukes til å kjenne igjen mennesker basert på fysiske egenskaper.
Ansiktsgjenkjenning har for eksempel vist seg å være vanskeligere på mennesker med mørk hud. Grunnen er at programmene er laget med utgangspunkt i lysere hudtyper.
Farlig biometri
–
I noen land og i noen situasjoner kan biometri gi direkte farlige resultater.
Tenk deg at et slikt program for ansiktsgjenkjenning identifiserer deg som et annet
kjønn enn det du har oppgitt. I Norge er det kanskje ingen «big deal», men
i land der det å være transkjønnet er ulovlig, kan det være helt krise, sier
Giannoumis.
Et
KI-system er alltid designet for å kunne forutsi noe. Det skjer på bakgrunn
av algoritmer som noen har definert.
Hvis de som lager systemet anerkjenner og
legger inn to kjønn – mann og kvinne – er det lett å se for seg at enkelte
personer kan havne i en kategori der de ikke føler de hører hjemme.
Giannoumis
forteller at stemmebaserte tjenester ofte fungerer bedre for menn enn for
kvinner.
Og hva skjer når en tjeneste er stemmebasert og du har talefeil eller
du snakker på et annet språk enn morsmålet ditt – får du gjennomført ærendet
ditt? Kan du delta i samfunnet på lik linje med andre?
Slike
problemstillinger jobber Giannoumis med for tiden. Han brenner for inkludering. Det handler ikke bare om kjønn eller etnisitet, men om mangfold i bred forstand.
Annonse
Hva er bias innen kunstig intelligens (KI)?
Kunstig
intelligens bygges opp av algoritmer og gjennom maskinlæring. KI-systemer gir
iblant svar og resultater som reflekterer og viderefører menneskelige
fordommer, inkludert historisk og nåværende sosial ulikhet. Det er denne
skjevheten og disse fordommene vi kaller bias.
Bias kan finnes i de
opprinnelige treningsdataene som forskerne legger inn for at maskinene skal øve, de
kan ligge i algoritmen eller i forutsigelsene som algoritmen produserer.
Hvis ikke bias blir fjernet fra systemet, kan det forhindre folks mulighet til å delta
i økonomien og samfunnet. Det reduserer også KI-teknologiens potensial.
Bedrifter kan ikke dra nytte av systemer som produserer forvrengte resultater
og fremmer mistillit blant fargede, kvinner, personer med
funksjonsnedsettelser, LHBTQ-samfunnet eller andre marginaliserte grupper.
Kilde:
IBM
Vi er sjelden klar over egne bias
Som
regel er vi ikke bevisst de ting vi tar for gitt. Normer og forutinntattheter
ligger så innbakt i ryggraden at vi ikke stiller spørsmål ved dem. Vi er med
andre ord sjelden klar over våre egne bias.
Det krever innsikt, erfaring og
tilgang til nye perspektiver om vi skal få ristet dem av oss. Flere forskere
har pekt på nettopp bias som en av de største utfordringene vi står overfor når
det gjelder KI. Grunnen er at det å gjenkjenne fordommer og forhindre eller redusere
effekten av dem er krevende.
Teamene
som utvikler ulike typer teknologi, må både mestre datavitenskapelige teknikker
og ha en metaforståelse for sosiale forhold og krefter.
Nå
utvikler Giannoumis en ny modell. Den skal hjelpe folk til større
bevissthet rundt mangfold og bias når de utvikler eller bruker KI-systemer.
–
Jeg har tatt utgangspunkt i hvordan vi tror bias sniker seg inn i KI-systemer. Hva
er det viktig at folk tenker gjennom? Hva skal vi gjøre når vi oppdager bias?
Kan vi begrense effekten? Hvis det er mulig, vet vi hvordan vi skal gjøre det
uten å skape nye bias? Hvem er menneskene som sjekker? Hva legger de inn som
nye data?
Det betyr at hvert land må følge denne loven når de utvikler og tester systemer før
de introduseres i markedet. Gründere får dermed tilbakemeldinger og kan rette opp feil mens de utvikler produktene sine.
Giannoumis mener det er viktig å følge med på hvordan KI utvikles og brukes i en bedrift. For målet med EUs regler er at både bedrifter, kunder, ansatte og samfunnet skal få noe positivt ut av det.
Mangfold kan motvirke bias
Anthony
Giannoumis mener at en av metodene for å motvirke bias er å sørge for mangfoldige
team. Slik får vi inn flere perspektiver.
Annonse
–
Vi må innse at det er et gap mellom det vi tror vi gjør og det vi faktisk gjør
i arbeidslivet, sier han.
Da
han i fjor gjennomførte en studie blant bedriftseiere, mente 72 prosent at
deres selskap utmerker på inkluderende ledelse. Samtidig oppga
60 prosent at de manglet opplæring eller ressurser innen feltet.
Regjeringen
har som mål at vi skal lykkes med å styrke konkurransekraften, innovasjonsevnen
og den sosiale og økonomiske bærekraften.
I Utsynsmeldingen sier regjeringen at
befolkningens kompetanse er Norges viktigste ressurs.
Vi
vet at Norge allerede mangler viktig kompetanse og at vi importerer mye
arbeidskraft. Evner vi å benytte oss av alt de bringer med seg av kunnskap,
erfaring og perspektiver?
Vi må dra nytte av folks varierte perspektiver
Giannoumis
er amerikaner med greske foreldre. Han har gjennomført forskning på fire
kontinenter og har bodd tretten år i Norge. Her har han tatt en doktorgrad ved
Universitetet i Bergen.
Forskningen hans har tatt for seg mange typer manglende
integrering. En av dem er at internettbaserte tjenester fortsatt er
utilgjengelig for mange med funksjonsnedsettelser. Det skjer på tross av innsats fra nasjonale
myndigheter, FN og EU.
Han
mener vi har et uutnyttet potensial her til lands. Vi må tenke mye bredere
rundt begrepene mangfold og inkludering enn det vi gjør i dag.
– Skal vi lykkes med innovasjon og
være konkurransedyktig i fremtiden, må vi utvide vår forståelse av begrepet
inkludering, sier han.
– Når jeg snakker om mangfold, handler det
ikke bare om kjønn eller etnisk tilhørighet. Jeg tar med folks perspektiver.
Vi er nødt til å ta inn over oss at menneskers varierte erfaringer er noe av
det viktigste de kan bringe til bords. Jeg har mye å lære av en person som er
født blind eller sitter i rullestol. Deres levde liv påvirker både hva de
gjør og hvordan de tenker, sier forskeren.
Vi blir mer kreative med flere perspektiver
Annonse
Hvis
alle tenker likt, er vi mindre kreative. Evnen til innovasjon vil være en betydelig
konkurransefordel fremover i en tid der evnen til å tilpasse seg og være
kreativ er avgjørende for mange virksomheter.
Da må ledere se potensialet i å
skape et inkluderende miljø der alle stemmer blir hørt og verdsatt, mener forskeren.
–
Det er naturligvis mye enklere og raskere å samarbeide når alle i et team
tenker mer eller mindre likt. Kommunikasjonen flyter lettere og man kan raskere
vise resultater. Men et mer mangfoldig team vil uten tvil komme opp med flere
ulike ideer til løsninger og på sikt prestere bedre, sier Giannoumis.
Sjekk
om treningsdataene over- eller underrepresenterer visse grupper. Hvis treningsdata
for ansiktsgjenkjenning i hovedsak består av hvite mennesker, kan det føre til feil
ved gjenkjenning av fargede personer.
2. Merk informasjonen riktig:
Feilmerking av treningsdata kan føre til bias. Et
KI-basert rekrutteringsverktøy som er inkonsekvent i merkingen eller ekskluderer/overrepresenterer
visse egenskaper, kan for eksempel gjøre at kvalifiserte jobbsøkere blir luket
vekk fra bunken av aktuelle kandidater.
3. Sjekk
om algoritmene inneholder bias:
Bruk av feil treningsdata kan føre til algoritmer som
gjentatte ganger produserer feil eller urettferdige resultater. Et eksempel kan
være at man bruker inntekt som en indikator og dermed utilsiktet diskriminerer
innvandrere (som er overrepresentert blant dem med vedvarende lav inntekt). Kontroller
om der er programmeringsfeil som kan skyldes utviklernes egne bevisste eller
ubevisste bias, og sørg for rettferdig vektlegging av faktorene algoritmen tar
sine beslutninger på.
4. Vurder
den menneskelige påvirkningen:
Menneskers erfaringer og preferanser kan påvirke hvordan
vi velger og vekter data. Vi har bedre muligheter for å kjenne igjen og
undersøke hvordan teknologien skapes og hvordan den påvirker samfunnet hvis vi:
a) er bevisst menneskelige faktorer
b) er bevisst systemiske
samfunnsmessige faktorer
c) tar alle former for
potensiell bias i betraktning.
Denne bevisstheten øker når vi samarbeider med mennesker
med en annen bakgrunn, andre forutsetninger og andre perspektiver enn oss selv.