Denne artikkelen er produsert og finansiert av OsloMet – storbyuniversitetet - les mer.

Forskere ønsker mer åpenhet i hvordan kunstig intelligens virker innen medisin.

Hvordan kan vi være sikre på at kunstig intelligens stiller rett diagnose?

Kunstig intelligens kan bidra til å oppdage hva slags sykdommer vi har, men vi trenger mer kunnskap om hvordan den finner ut hva som feiler oss.

Maskinlæring er en spesialisering innen kunstig intelligens. Ved hjelp av statistiske metoder kan datamaskiner finne mønstre i store datamengder. Maskinen lærer i stedet for å bli programmert.

Å bruke maskinlæring i medisinsk diagnostikk og behandling blir mer og mer vanlig.

– Vi vet ikke alltid hvordan den lærer, og det gjør det vanskelig å avdekke feil, sier Steven Hicks, som har tatt en doktorgrad i ingeniørvitenskap på OsloMet om emnet.

Maskinlæring blir for eksempel brukt i bildediagnostikk. Kunstig intelligens kan se forandringer i radiologiske bilder og foreslå diagnoser, som for eksempel en kreftsykdom.

Dette kan bidra til at diagnosene blir stilt raskere og mer nøyaktig enn om det bare gjøres manuelt av en radiolog.

Steven Hicks forsker på bruk av kunstig intelligens innen medisin.

Få vet hvordan datamaskinen lærer

For at vi skal være trygge på at datamaskinen gir oss best mulig hjelp, så ønsker forskere mer innsyn i hvordan metodene for maskinlæring blir til.

– Forskning på medisinsk kunstig intelligens har i dag vanligvis upresise metodebeskrivelser, private data, lukket kildekode og ufullstendige evalueringer, påpeker Hicks.

Han forteller at veldig få detaljer har blitt gjort kjent i medisinske journaler og konferanser, særlig i konferanser for det medisinske fagmiljøet.

Da kan det være vanskelig å forstå hvordan den kunstige intelligensen lærer og hvilke følger det får.

Om det blir kjent, blir det lettere å korrigere og kritisere resultatene. Fagfolk innen medisin vil da kunne klare å bidra til å forbedre metodene.

Steven Hicks' forskning tar for seg hvordan kunstig intelligens kan brukes på ulike områder innen medisin.

Han har undersøkt manglende åpenhet innen medisinsk kunstig intelligens-forskning.

Målet er å bidra til åpnere og mer offentlig tilgjengelig forskning.

Forsket på åpne løsninger

For å utforske dette utviklet Hicks selv åpent tilgjengelige løsninger for kunstig intelligens og gjennomførte eksperimenter og undersøkelser.

Han og kollegene hans samlet og publiserte medisinske datasett og utviklet modeller for kunstig intelligens på ulike medisinske områder.

De utførte også eksperimenter for å kontrollere gyldigheten av datasettene de hadde samlet inn, organiserte konkurranser om medisinske kunstig intelligens-applikasjoner og undersøkte metoder for evaluering.

Arbeidet ble utført for å få en grundig forståelse av hvordan åpent tilgjengelig kunstig intelligens kan brukes innen hjertemedisin, assistert befruktning, mage og tarm, og mental helse.

Bør være tilgjengelig for alle

Siden forskningen hittil hadde vært lukket, ville Hicks gjøre arbeidet sitt mer tilgjengelig for alle, ikke bare for legene.

Han har sørget for at alt blir forklart. Både datainnsamling, evaluering og testing. Målet er å sørge for en bedre forståelse av hvordan maskinlæring kan brukes, og hvordan den ikke kan og bør brukes.

Hvert steg i maskinlæring har stor effekt på sluttproduktet. Dataene som blir brukt til å trene datamaskinen, påvirker selvfølgelig hva den kan bli brukt til og hvor bra den kan fungere.

Han mener at alle fasene i slike prosesser bør være åpne til analyse for andre for å kunne se om modellen er god nok.

Jobber for mer åpenhet

– Vi brukte ikke vitenskapelige metoder for å finne ut hvor gjennomsiktig forskningen er, men jobbet heller for å få til mer transparens i forskningen. Vi publiserte data som alle kan bruke, hadde konkurranser for å få til mer sammenlignbarhet og hadde åpent tilgjengelig dokumentasjon, forteller Hicks.

– Vi publiserte ti datasett gjennom hele perioden og fikk gode tilbakemeldinger.

– Jeg var nylig på en konferanse i USA hvor en forsker fortalte at hele hans doktorgradsavhandling var basert på data vi hadde publisert, og alt arbeidet var gjort kun fordi vi hadde publisert store datasett innenfor koloskopi, det vil si tarmundersøkelser.

– Det åpner nye muligheter til å bidra for folk som ikke har tilgang til medisinske data, og for samarbeid med leger og sykehus, sier Hicks.

Feller i maskinlæring

– Vi ser mange eksempler hvor folk bygger et system som fungerer skikkelig bra. De kan ha mye data, men når de setter det ut i praksis, fungerer det ikke i det hele tatt.

Hicks sier at dette også skjer utenfor medisin. Et eksempel er fra forsvarsteknologi der forskere trente en modell til å se forskjell på amerikanske og russiske tanks. Russisk tanks ble sett på soldager, amerikanske på dager med regn. Modellen lærte å se på lysforskjellen og ikke tanksene i seg selv.

– Dette er feller i maskinlæring som det er viktig å fange opp før du setter ting ut i praksis. Mange begynner nå å ta grep. Vi er flere som påpeker problemet med mangel på transparens i medisinsk kunstig intelligens, sier han.

Kunstig intelligens kan assistere legen

Forskeren mener at mange leger vet for lite om hvordan den kunstige intelligensen jobber og finner fram til svar.

Det gjør det også vanskelig å stole på resultatene.

– Bare det å gjøre legene mer klar over hvordan den fungerer, kan være nyttig, sier han.

Dagens systemer for kunstig intelligens er ikke ment for å erstatte noe, men som ekstra hjelp. Steven Hicks forklarer at lege og maskin kan jobbe side om side. Det sparer tid, og det kan bli mulig å fange opp ting som ellers hadde blitt oversett.

– Om legen fanger opp noe som kunstig intelligens ikke finner og kunstig intelligens fanger opp noe legen ikke finner, så gjør de det bedre sammen enn hver for seg.

– Det er viktig å forstå prinsippene, at dette er noe du kan samarbeide med, men ikke stole for mye på.

Artikkelen er oppdatert 7. november klokken 0855.

Referanse:

Steven Hicks: Transparency in Medical Artificial Intelligence. Doktorgradsavhandling ved OsloMet, 2022. (Nettside på Simula om avhandlingen)

Datamaskiner lærer av eksempler

  • Datamaskinen lærer seg noe den ikke kan fra før i maskinlæring.
  • For å lære må datamaskinen først fôres med mange eksempler på det den skal forstå. Dette kalles dyp læring.
  • Dyp læring i bildeanalyse kan for eksempel ha stor innvirkning på hvordan datamaskiner kan brukes på sykehus.
  • Med dyp læring kan datamaskinene bli bedre i stand til å overvåke helsen vår, og bli til god hjelp i diagnostikk og behandling.
Powered by Labrador CMS