Kunstig intelligens klarer å skille Alzheimer fra andre former for svekkelser i hjernen. Hjerneskanningene er fargekodet av den kunstige intelligensen. Rødt er områder som indikerer Alzheimer. Blått er områder som indikerer mildere og mer alminnelige former for svekkelse. (Figur: Radiological Society of North America)
Kunstig intelligens klarer å skille Alzheimer fra andre former for svekkelser i hjernen. Hjerneskanningene er fargekodet av den kunstige intelligensen. Rødt er områder som indikerer Alzheimer. Blått er områder som indikerer mildere og mer alminnelige former for svekkelse. (Figur: Radiological Society of North America)

Kunstig intelligens oppdager Alzheimer

Lærer å gjenkjenne symptomer tidlig ut fra hjerneskanninger.

Publisert

Dataprogrammer som kan lære av erfaring, har klart å skille tidlige stadier av Alzheimer-demens fra andre svekkelser i hjernefunksjon.

Forskere fra Nederland trente opp programmet ved å gi det 130 hjerneskanninger av pasienter der diagnosen ikke var kjent for dataprogrammet.

Så skulle programmet lære ved å sammenligne med fasiten – 130 andre hjerneskanninger der diagnosen var stilt på forhånd med andre metoder.

Dataprogrammet klarte med glans å skille tidlig Alzheimer fra andre mindre alderssvekkelser, blant annet det som kalles mild kognitiv svikt. Her var treffprosenten mellom 80 og 90 prosent.

Programmet klarte ikke så bra å skille de vanlige mildere svekkelsene fra hverandre. Dette kan skyldes stor variasjon i disse svekkelsene og for få forsøkspersoner, skriver forskerne i artikkelen i tidsskriftet Radiology.

Ser stoffskiftet i deler av hjernen

Hjerneskanningene i forsøket ble gjort med en spesiell variant av det som kalles funksjonell magnetresonans – fMRI.

Her måles hvor mye av blodet som tas opp i forskjellige deler av hjernen. Jo mer blod som tas opp, desto mer stoffskifte og aktivitet i hjernecellene.

Slike endringer i stoffskifte og hjerneaktivitet kan avsløre Alzheimer tidlig. Tidligere forsøk har nemlig vist at pasienter med Alzheimer får nedsatt blodopptak før selve hjernevevet forandres, ifølge studien i Radiology.

Forskerne lot dataprogrammet konsentrere seg spesielt om utvalgte deler av hjernen som de visste var påvirket ved Alzheimer – blant annet isselappene for språkforståelse og sansing og hippocampus  i tinninglappen for hukommelse og orientering i rommet.

Plasserer mønstre i kategorier

Dataprogrammet brukte en variant av maskinlæring som kalles støttevektor-maskiner. Her trenes dataprogrammet med mange eksempler, for eksempel bilder – i dette tilfellet hjerneskanninger.

Etter hvert klarer programmet å se felles mønstre i bildene. Det lager seg kategorier og klarer å plassere nye bilder i kategoriene.

Slike programmer kan brukes til å hjelpe leger å stille diagnoser. De nederlandske forskerne håper at deres program skal fange opp Alzheimer-pasienter tidlig i sykdommen.

Slik kan de raskere komme til behandling, også hvis de undersøkes på steder uten erfarne radiologer som kan tolke hjerneskanningene.

Magnetresonans-skannere for medisinsk bruk har superledende magneter. (Foto: KasugaHuang, GNU Free Documentation License.)
Magnetresonans-skannere for medisinsk bruk har superledende magneter. (Foto: KasugaHuang, GNU Free Documentation License.)

Ser sammenhenger, ikke årsaker

Støttevektormaskinen som Alzheimer-forskerne har brukt, kan ikke si noe om årsaken til sykdommen, ifølge forskeren Bjørn Magnus Mathisen.

Mathisen er stipendiat for datateknikk og informasjonsvitenskap ved NTNU og forsker på kunstig intelligens og maskinlæring.

Denne datametoden kan bare se statistiske sammenhenger.

– Du trenger leger for å se årsaker, sier Mathisen til forskning.no.

Nevrale nettverk og dyp læring

Andre og større datasystemer for læring kan gå dypere, men trenger også mye mer data enn forskerne hadde i denne Alzheimer-undersøkelsen.

Denne dype læringen trenger også maskiner som etterligner hjernens oppbygning – nevrale nettverk. Slik teknologi har gitt maskinlæring en ny vår, ifølge Mathisen.

– Store nevrale nettverk kan bli bedre på mønstergjenkjenning enn mennesker, sier han.

– Metodene bak dype nevrale nett ble oppfunnet framidten av 1990-tallet til tidlig 2000-tall, men først for fem-seks år siden fikk de et gjennombrudd på grunn av bedre datakraft og tilgang på større datamengder, fortsetter Mathisen.

– I lys av disse gjennombruddene ser vi forskere fra andre felt – som medisin – bli mer oppmerksomme på hva maskinlæring kan gjøre for deres forskning, sier han.

Menneske og maskin utfyller hverandre

Maskinlæring kan også brukes for å understøtte erfarne leger i deres diagnoser. Maskiner og mennesker utfyller hverandre.

Mennesker har intuisjon og erfaring. Maskiner klarer bedre å sammenligne enorme mengder data på kort tid.

Watson finner føflekkreft

Dette har firmaet IBM tatt konsekvensen av. De kjøper inn milliarder av bilder fra medisinske undersøkelser.

Så lar de den kunstige intelligensen Watson gå gjennom dem, ifølge en artikkel på nettsiden til MIT Techology Review fra august 2015.

Watson er bedre kjent som dataprogrammet som i 2011 vant en turnering av spørreleken Jeopardy mot to tidligere amerikanske vinnere.

Nå kan Watson trenes opp til å gjenkjenne kreft i blant annet føflekker ved å se etter ørsmå tegn i tusenvis av bilder.

Denne videoen fra et sykehus i Bangkok viser hvordan Watson brukes av kreftleger som et hjelpemiddel for å skaffe oversikt og gi behandling tilpasset den enkelte pasient.

Bedre enn radiografer

Et annet amerikansk firma, Enlitic, utvikler også dyp maskinlæring for å oppdage blant annet lungekreft.

Dataprogrammet er allerede nå bedre enn radiologer i stand til å identifisere viktige egenskaper til svulster i lungene, hevder lederen av firmaet i artikkelen til MIT Technology Review.

Personlig medisinsk rådgiving

Når også arvestoffet til pasientene etter hvert kan kartlegges rutinemessig og informasjon fra pulstellere og andre medisinske sensorer blir vanligere i daglig bruk, vil denne utviklingen fortsette.

Personlig tilrettelagt medisinsk rådgiving og behandling vil bli mulig i en helt annen skala. Derfor investerer nå firmaer som Google i slik teknologi, ifølge en artikkel i Financial Times fra mars 2015.

Teknologien utvikles blant annet av Googles britiske underselskap DeepMind. De stod bak den kunstige intelligensen som vant turneringen i spillet Go mot den koreanske stormesteren Lee Se-dol i mars 2016.

DeepMind ser mennesket inn i øyet

DeepMind skal nå bruke sine nevrale nettverk til å oppdage øyesykdommer. Programmet skal få tilgang til en million skanninger av netthinner, meldte nettstedet Ars Technika i juli 2016.


Video fra Google DeepMind om samarbeidet med Moorfields Eye Hospital i London.

Skanningene kommer fra et sykehus som er tilsluttet Storbritannias offentlige helsevesen.

– Jeg tror det blir veldig spennende å se hva DeepMind kan få til nå som de får tilgang til store detaljerte datasett fra det engelske helsevesenet, sier Mathisen.

– Da tror jeg de kan bidra med diagnoser som fungerer bra selv når det er sparsomt med data fra pasienten, fortsetter han.

– Jeg tror også det vil bli vanlig med apper som gir personlige helseråd, råd man også kan ta med seg når man besøker legen, sier Mathisen.

Referanse og lenker:

Lyduine E. Collij m.fl: Application of Machine Learning to Arterial Spin Labeling in Mild Cognitive Impairment and Alzheimer Disease, Radiology 6.7.2016, DOI:10.1148/radiol.2016152703.

Why IBM Just Bought Billions of Medical Images for Watson to Look At, MIT Technology Review, 11. August 2015.

Nettsider fra IBM om Watson Health.

Nettsiden til firmaet Enlithic, som utvikler kunstig intelligens for å diagnostisere kreft.

Verily, ett av firmaene som utvikler medisinsk teknologi for Google

Calico, et annet Google-underselskap som utforsker årsakene til aldring

Google DeepMind Health, blogg på nettsidene til selskapet.