Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.

Matematisk paradoks viser hvor grensene går for kunstig intelligens.

Noen oppgaver vil kunstig intelligens aldri klare å løse

Inspirert av hvordan Alan Turing viste at matematikken har sine grenser, gjør dagens matematikere det samme for kunstig intelligens.

Kunstig intelligens kommer på oss fra alle kanter, om det er medisinske diagnoseverktøy, selvkjørende biler, sortering av post eller på en av de mange appene på telefonen din.

– Derfor er det utrolig viktig å undersøke barrierene i kunstig intelligens, sier forsker Vegard Antun ved Matematisk institutt på Universitetet i Oslo.

Han er vant til å bli sett på som «han som ikke har tro på kunstig intelligens», men det stemmer ikke i det hele tatt.

– Folk har lett for å oppfatte meg som negativ fordi jeg peker på ting som ikke fungerer, men sånn er det ikke. Hensikten er bare å finne ut hva som er mulig og hva som er umulig å løse med kunstig intelligens, sier Antun.

Inspirert av Alan Turing og andre store matematikere fra forrige århundre, vil Antun og hans to matematikk-kollegaer Matthew Colbrook og Anders Hansen vise hvor grensene går for kunstig intelligens.

Funnene deres ble nylig publisert i det vitenskapelige tidsskriftet PNAS.

Det er penger å spare på å kjenne begrensningene til kunstige intelligenser, mener matematiker Vegard Antun.

Matematikken har sine grenser

På 1930-tallet viste Turing og andre at det finnes matematiske utsagn som verken kan bevises eller motbevises – det er med andre ord grenser for hva matematikk kan gjøre.

– Selv om de viste at det finnes begrensninger, så har ikke dette hemmet matematikken på noen som helst måte, men vi har fått et stort forskningsfelt i matematisk logikk, sier Antun.

Ved å bruke den sammen verktøykassen kunne Turing også vise at det finnes matematiske problemer som ikke kan løses med algoritmer.

– Dette viste seg å være svært nyttig kunnskap da de første datamaskinene skulle utvikles, sier Antun.

Nå håper han å kunne gjøre noe lignende for kunstige intelligenser bygget opp som nevrale nettverk, som er inspirert av hvordan hjernen vår fungerer.

– Vi har funnet noen utvalgte matematiske problemer der det eksisterer nevrale nettverk som kan løse problemet, men du vil aldri klare å lage noen algoritme som kan lage de nettverkene, sier Antun.

– Du får ikke inn den riktige informasjonen. Uansett hvor nøyaktige dataene dine er, kan du aldri få den helt perfekte informasjonen for å bygge det nevrale nettverket du trenger.

Dette høres kanskje litt paradoksalt ut, at noe skal finnes uten at det er mulig å lage det, men dette er noe en matematiker er vant til.

– Det er mye teori som beviser eksistens, men som ikke gir deg noen oppskrift på hvordan du skal finne det.

Som å dele en vinkel i tre

Antun sammenligner det med et eksempel fra skolegeometrien.

– På skolen lærte mange av oss hvordan vi kan lage vinkler på 90, 60, 45 og 30 grader med passer og linjal uten målestreker. Noen lærte også hvordan man kan dele en vinkel i to. Men, det var ingen av oss som lærte hvordan vi kan dele en vilkårlig vinkel i tre like store deler med disse redskapene.

– Det eksisterer nemlig ingen algoritme som kan dele en vilkårlig vinkel i tre like store deler ved bruk av passer og linjal. Likevel vil det eksistere en tredeling av en vinkel – vi har bare ikke en algoritme for å lage en slik tredeling med passer og linjal.

– På samme måte som passeren og linjalen setter begrensninger for hvordan vi kan dele vinkler, setter også moderne datamaskiner begrensninger for hvilke systemer vi kan lage i kunstig intelligens.

Hund eller muffins?

Da nevrale nettverk og dyp læring inntok kunstig intelligens-forskningen for snaut ti år siden, skjøt teknologien virkelig fart. Men ikke uten at man var klar over enkelte problemer.

– Det som har vært den store akilleshælen til kunstig intelligens så langt, er ustabiliteter og ikke-menneskelig oppførsel, sier Antun.

Det betyr blant annet at det er lett å manipulere en kunstig intelligens til å komme til feil resultat, samtidig som den er veldig sikker på tolkningen sin. For eksempel kan Antun enkelt legge inn «støy» i et bilde av en muffins som får maskinen til å tro at det er en hund. Uten at et menneske vil se forskjell på de to bildene.

– Den kunstige intelligensen har ingen ide om når den gjør feil. Den kan være veldig sikker på noe selv om den gjør en stor feil. Vi mennesker vil ha en forståelse av når vi er usikre eller tar feil, sier matematikeren.

Dette kalles også en hallusinasjon fordi den kunstige intelligensen reagerer på en måte som mennesker aldri ville ha gjort.

Antun har tidligere vist at det er en balanse mellom nøyaktighet og stabilitet for kunstig intelligens i medisinsk avbildning slik som MRI og CT. Hvis du skal være veldig nøyaktig, vil du bli mer ustabil.

Penger å spare på å kjenne begrensningene

Mange har trodd at dette og andre problemer var noe som skulle løse seg etter hvert. Men det har det ikke gjort. Dette mener Antun det er viktig å være klar over når man skal sette en kunstig intelligens til å løse et problem.

– Jeg tror det er en del spørsmål som blir stilt litt feil fordi man ikke tenker på at det finnes universelle begrensninger, sier han.

Det gjelder både balansen mellom nøyaktighet og stabilitet og Antuns nye paradoks: At det vil eksistere nevrale nett som kan gjøre jobben, men du klarer ikke å lage noen algoritme som gjør det.

– Det er viktig å finne hvilke begrensninger de nevrale nettverkene har. Dette kan jo spare samfunnet for masse penger også. Vi må kartlegge begrensningene for å vite hvilke problemer vi kan angripe med kunstig intelligens, sier Antun.

På samme måte som det Turing og andre har påvirket hvordan matematikk og datamaskiner har utviklet seg, håper han at lignende resultater kan påvirke hvordan man jobber med kunstig intelligens.

– Vi håper dette kan være med på å bygge et fundament for kunstig intelligens – at man her kan utvikle en rik teori for hvilke problemer man kan løse med kunstig intelligens, sier Antun.

Referanse:

Matthew J. Colbrook, Vegard Antun mfl.: The difficulty of computing stable and accurate neural networks: On the barriers of deep learning and Smale’s 18th problem. Proceedings of the National Academy of Sciences (PNAS), 2022. Sammendrag. Doi.org/10.1073/pnas.2107151119

Powered by Labrador CMS