Denne artikkelen er produsert og finansiert av UiT Norges arktiske universitet - les mer.

I helsesektoren er innføring av kunstig intelligens i en tidlig, men raskt voksende fase. Bruken av kunstig intelligens for å støtte medisinske beslutninger kan bli vanlig i nær fremtid.

Kunstig intelligens: Forsker advarer mot diskriminering av minoriteter

Kan vi stole på at kunstig intelligens driver likebehandling av pasienter? 

– Det finnes en risiko for diskriminering, og minoritetsgrupper er særlig utsatt, advarer forsker Mathias Karlsen Hauglid. 

De siste årene har utviklingen innen kunstig intelligens skutt voldsom fart. Innen helsesektoren vokser bruken av kunstig intelligens raskt. I nær fremtid kan det bli vanlig å bruke kunstig intelligens for å støtte beslutninger man tar i behandlingen av pasienter. 

Mathias Karlsen Hauglid.

– Kunstig intelligens blir i dag utforsket i praksis innen flere områder: Diagnose, behandlingsanbefalinger, og forebygging og prioritering av ressurser, forteller Hauglid.

Fordelene er mange, men Hauglid understreker at det finnes alvorlige utfordringer ved å ta i bruk systemer for kunstig intelligens, også innen helsesektoren. Han påpeker at det er en stor bekymring knyttet til faren for at «skjevheter» i kunstig intelligens-systemer. De kan føre til diskriminering.

Dette har Hauglid forsket på i sin doktorgrad som han tok ved Det juridiske fakultet på UiT - Norges arktiske universitet. 

Avhandlingen startet han på tilbake i «steinalderen» i 2019. Altså før for eksempel ChatGPT og før folk flest for alvor begynte å interessere seg for temaet kunstig intelligens (KI). Men også før EU lanserte det første lovforslaget som helt spesifikt rettet seg mot bruken av KI.

Minoriteter særlig utsatt

Hauglid har i sin avhandling tatt for seg kunstig intelligens-systemer basert på maskinlæring. Bruken av historiske data er selve grunnlaget for teknologien.

Kunstig intelligens trenes opp ved å bruke store mengder relevant informasjon og tekst. De kan være samlet inn fra helsetjenesten. For eksempel kan den kunstige intelligensen lære at det kan være en sammenheng mellom en viss kombinasjon av ord i en elektronisk helsejournal og en spesifikk sykdom. Hvis ordene finnes i helsejournalen tolker den det som at det er økt sannsynlighet for sykdommen.

I slike tilfeller er minoriteter særlig utsatt. Årsaken er enkel: Som regel finnes det rett og slett mindre data om minoritetsbefolkninger, påpeker Hauglid. 

Bruken av historiske data er selve grunnlaget for maskinlæringsteknologien.

En algoritme som trener på historiske data, blir som regel bedre tilpasset de tilfellene den har sett mange av i et datasett.

Der er som regel ikke minoritetene representert.

– Det kan bety at en algoritme blir bedre egnet til å forstå spesielle symptomer slik de pleier å vise seg for majoriteten i befolkningen enn sammenlignet med symptomer hos minoriteter, sier Hauglid.

Historiske feilvurderinger

Det kan også være andre skjevheter.

– Dette kan ha å gjøre med historiske feilvurderinger eller antakelser som historisk har vært lagt til grunn. Dersom antakelsene blir lagt til grunn når man utvikler en algoritme, så kan det resultere i at forskjellsbehandling videreføres gjennom et kunstig intelligens-system, sier Hauglid. 

En tilleggsutfordring er at KI-systemer kan fange opp informasjon om gruppetilhørighet. Det kan skje uten at de som lager eller bruker systemene er klar over det.

Konsekvensen av en eventuell forskjellsbehandling kan være at man risikerer å levere helsetjenester med ulik kvalitet. Dette er avhengig av hvilken gruppe den enkelte pasient tilhører.

– Vi ønsker selvsagt ikke å tilby folk ulike og diskriminerende tjenester. Enten det er mellom kvinner og menn, majoriteter og minoriteter, etnisitet eller seksuell legning, sier Hauglid.

Generelt lovverk

Hauglid viser til at vi i dag har et svært generelt lovverk som regulerer diskriminering. 

Det overordnede prinsippet om at ingen skal diskrimineres er nedfelt i Grunnloven, Menneskerettskonvensjonen og i EU-rett. I Norge har vi også en egen lov om likestilling og ikke-diskriminering.

Utfordringen, mener Hauglid, er at det det er lite regulering av  beslutninger i medisinsk behandling. Hvordan prinsippene og lovene brukes i praksis er utviklet gjennom rettspraksis. Det er gjennom konkrete saker og eksempler der loven blir brukt. Slike saker handler veldig sjelden om kunstig intelligens og medisinsk behandling. 

– Dermed er det vanskelig å tolke hva reglene betyr på dette området, sier Hauglid.

Nye EU-regler

I 2021 foreslo EU-kommisjonen et felles europeisk regelverk for KI-systemer (AI Act). Fredag 8. desember 2023 ble det enighet om denne loven i EU. 

Det nye regelverket gir utviklere og brukere av KI-systemer flere plikter. Blant annet må de vurdere kunstig intelligens kan føre til diskriminering før de tar det i bruk. Formålet er å forhindre at diskriminering oppstår etter at et system er tatt i bruk.

Men en slik løsning reiser nye spørsmål. Det er ikke åpenbart hva diskriminering betyr innenfor kunstig intelligens-feltet. Heller ikke hvordan man kan vurdere diskriminering, spesielt før et system blir tatt i bruk. Hauglids avhandling diskuterer hvordan slike forhåndsvurderinger kan gjennomføres.

– Hauglids arbeid, i skjæringsfeltet mellom jus, maskinlæring og helse, er unikt i nasjonal og internasjonal målestokk. Dette legger grunnlaget for mye spennende ny forskning innen jus, men også for oss KI-forskere for å utvikle metodikk for forhåndsvurderinger, sier prosjektleder Robert Jenssen ved UiTs maskinlæringsgruppe.

Om forskningsprosjektet

Mathias Karlsen Hauglids doktorgradsavhandling: «Bias and Discrimination in Clinical Decision Support Systems Based on Artificial Intelligence» ved Det juridiske fakultet på UiT. 

Hauglids doktorgradsprosjekt er en del av det tverrfakultære prosjektet «Data-Driven Health Technology», som har sitt utspring i Forskningsgruppa for maskinlæring ved UiT. Prosjektet har fått tildelt midler gjennom UiTs utlysning Tematiske satsinger, og er et samarbeid mellom Fakultet for naturvitenskap og teknologi, Det helsevitenskapelige fakultet og Det juridiske fakultet. 

I tillegg til juridiske veiledere Tobias Mahler, UiO og Ingunn Ikdahl, professor II ved UiT, har Robert Jenssen ved UiTs maskinlæringsgruppe veiledet Hauglid i doktorgradsarbeidet.

         
Powered by Labrador CMS