Denne artikkelen er produsert og finansiert av OsloMet – storbyuniversitetet - les mer.

Roboter og andre autonome maskiner kan ende opp med å skade mennesker basert på feil beslutninger.
Roboter og andre autonome maskiner kan ende opp med å skade mennesker basert på feil beslutninger.

Dette er utfordringene med kunstig intelligens

Vi slipper kjedelige rutineoppgaver, men får store utfordringer med sikkerhet, personvern og energiforbruk.

Fordelene med kunstig intelligens er mange, og denne teknologien vil gi stor verdi til samfunnet i mange år fremover.

Men fremveksten av kunstig intelligens fører også til utfordringer knyttet til personvern, tillit, sikkerhet og bærekraft.

Forskerne ved Nordic Center for Sustainable and Trustworthy Artificial Intelligence (NordSTAR) ved OsloMet vil løse noen av disse utfordringene.

Personvernutfordringer

Norge er langt framme på alt av digitalisering. Vi har store mengder av data, men mangel på personvern er en utfordring når man skal ta i bruk kunstig intelligens.

I Norge og Europa ellers må man blant annet ta hensyn til lover og regler for databehandling, som GDPR. Andre land, som for eksempel Kina, har færre restriksjoner på bruk av data.

Anis Yazidi er professor ved OsloMet og leder NordSTAR sammen med Pedro Lind. Han trekker fram et eksempel på en algoritme hvor en som går til angrep på et datasystem, kan finne ut hvem som står bak dataene, som en kunstig intelligent algoritme har lært av i treningsfasen. Dette er fasen hvor algoritmen mates med data for å lære å ta beslutninger.

– Det kan altså være mulig å finne ut hvem som har vært med i datasettet dersom det er oppgitt persondata, selv om dette i utgangspunktet er informasjon som skulle vært fortrolig, sier Yazidi.

Gjennom transparens, forklarbarhet og å legge vekt på menneskelige faktorer, ønsker NordSTAR å imøtekomme kravene til sikkerhet og personvern.

– Kunstig intelligens kan feiltolke det som mennesket kan forstå, sier professor Anis Yazidi.
– Kunstig intelligens kan feiltolke det som mennesket kan forstå, sier professor Anis Yazidi.

Vanskelig å forklare beslutninger

Et annet problem med kunstig intelligens er at algoritmene fungerer som en svart boks, der mennesker ikke forstår hvordan maskinen kommer fram til beslutningene som tas.

– For eksempel når vi bruker algoritmer til å finne ut hvorfor en person får lån, og en annen ikke får det. Du trenger en forklaring på prosessen. Forklarbarhet er et stort problem innen kunstig intelligens, sier professoren.

Usikre beslutninger

Det er også viktig å ta høyde for vurdering av usikkerheten i beslutningene til en intelligens.

– Kunstig intelligens gir aldri en beslutning som er hundre prosent sikker. Her kan man bruke værmeldinger som et eksempel. Vi snakker ofte om hvor sikkert det er. Det er alltid en viss usikkerhet, forklarer Yazidi.

Han forteller videre at det snakkes lite om sikkerhet rundt en beslutning ved kunstig intelligens.

– I NordSTAR skal vi prøve å kvantifisere usikkerhet. Når kunstig intelligens viser at noe er kreft, må vi også kunne måle hva som er sannsynligheten for at beslutningen er sann.

Skadelig påvirkning av kunstig intelligens

Dessuten er det en utfordring at man med små endringer kan forandre beslutningene som tas av kunstig intelligens.

En modell for kunstig intelligens kan angripes ved små endringer i for eksempel et bilde, og få et helt annet utfall. Dette kalles «adversarial attacks».

– Forskere har for eksempel vist at kunstig intelligens i biler kan feiltolke et trafikkskilt med en liten modifikasjon med tape på skiltet, forteller Yazidi.

– Dette kan være farlig. Algoritmene i kunstig intelligens er sårbare for små endringer i et bilde eller annen input. Du kan få helt forskjellige resultat. Den feiltolker det som mennesket kan forstå.

Gale beslutninger kan gi ulykker

Det ser dermed ut til at det kan være mer trygt å bruke kunstig intelligens på noen oppgaver – som for eksempel diagnostikk, der du kan gå gjennom resultatene etterpå.

Er det derimot en selvkjørende bil, må den ta riktig beslutning der og da, hvis ikke kan det skje en ulykke.

– Beslutninger kan koste liv, særlig i biler og lignende utstyr. En feil kan koste et liv, dersom disse programmene styrer roboter som mennesker kan komme i fysisk kontakt med, sier han.

Roboter og andre autonome maskiner kan ende opp med å skade mennesker basert på feil beslutninger. Det kan også tenkes at mennesker kan bruke kunstig intelligens til å skade hverandre.

– Et scenario kan være at en robot som interagerer med oss, blir hacket, slik at den kan skade oss. Det er for eksempel lett å programmere droner til å kjenne igjen ansiktet mitt og krasje i meg, og det blir vanskelig å spore tilbake til hvem som er skyldig, forteller professor Yazidi.

Dette vil være en ny type kriminalitet som vi ikke er vant til, og som kan bli vanskelig å stoppe. Hvem som helst har muligheten til å kjøpe en drone.

– Vi må ha et system som tar hensyn til dette og for eksempel kan fange opp hvem som hacker en robot og hvem som har kjøpt utstyr som gjør det mulig.

– Vi må utvikle kunstig intelligens som tjener folk og ikke erstatter dem, sier Pedro Lind.
– Vi må utvikle kunstig intelligens som tjener folk og ikke erstatter dem, sier Pedro Lind.

Høyt strømforbruk

Kunstig intelligente algoritmer krever også mye elektrisitet. Å trene opp modeller kan kreve like mye energi og slippe ut like mye karbondioksid som flere biler gjør i løpet av hele sin levetid.

– Man trenger å gå gjennom data over mange dager eller kanskje en måned, og CO2-utslippene kan da utgjøre livstidsutslippene til opptil fem biler, sier Yazidi.

Forskerne i NordSTAR vil forsøke å minske forbruket til kunstig intelligente algoritmer ved å hente inspirasjon fra den menneskelige hjernen.

Hjernen bruker til sammenligning om lag 40 Watt. Det er veldig lite energi i forhold til kunstig intelligens.

– Det blir en slags etterligning av biologien, men den er jo komplisert og sammensatt?

– Det kan ta hundre år før vi har roboter som har lik intelligens som oss, den generelle intelligensen. Roboter som kan snakke med oss, ta beslutninger som oss og løse oppgaver som oss – det kommer ikke i vår levetid, forklarer Yazidi.

Må brukes til det beste for samfunnet

– For oss forskere er det viktig at kunstig intelligens brukes til det beste for samfunnet, for bedre helse, mer komfort og økt velferd. Ikke til militære formål, for å erstatte mennesket, lage mer kapitalisme eller forsterke diskriminering. Der har myndighetene et ansvar for å sette et regelverk, fortsetter han.

Yazidi mener vi bør ha forskere med menneskelige perspektiver, og som kan undersøke hvordan kunstig intelligens kan brukes i det daglige livet – og se på hvorfor det i dag kan være vanskelig å forstå og vanskelig å bruke.

– I dag ser vi eksempler på forskere som utvikler programvare som fungerer bra, men som ikke er designet for mennesker og derfor ikke blir tatt i bruk.

Kunstig intelligens er den nye strømmen

Ifølge Andrew Ng fra Stanford, en av de mest sentrale forskere innen kunstig intelligens i verden, er kunstig intelligens den nye strømmen.

– Han sier at det er vanskelig å forestille seg en industri eller sektor som ikke kommer til å bruke kunstig intelligens på samme måte som vi bruker strøm nå, sier professor Pedro Lind.

– Vi må utvikle kunstig intelligens som tjener folk og ikke erstatter dem. Utviklingen av kunstig intelligens må innbakes i våre menneskelige verdier. I NordSTAR forsker vi på hvordan mennesket og kunstig intelligens kan samarbeide. Vi ser på menneskelige aspekter som gjør at kunstig intelligens kan tilpasses menneskelig tenkemåte istedenfor at vi mennesker tilpasser oss til kunstig intelligens, sier Lind.

Om NordSTAR

Nordic Center for Sustainable and Trustworthy Artificial Intelligence, NordSTAR, forsker på moderne kunstig intelligens (AI). Målet er å etablere et nytt paradigme i forskningen på bærekraftig og pålitelig kunstig intelligens.

forskning.no vil gjerne høre fra deg!
Har du en tilbakemelding, spørsmål, ros eller kritikk? TA KONTAKT HER

Powered by Labrador CMS