En fornøyd Lee Se-dol møtte på pressekonferanse etter å ha vunnet sin første kamp i turneringen mot den kunstige intelligensen AlphaGo. (Foto: Xinhua, NTB Scanpix)

Verdensmester klarte endelig å slå kunstig intelligens

Stillingen er nå 3 – 1 i Go-kampen mellom maskin og menneske.

På fjerde forsøk klarte menneskehetens nest beste Go-spiller, Lee Se-dol, å slå den kunstige intelligensen AlphaGo.

Det er tre måneder siden programmet slo sitt første menneske, den europeiske stormesteren Fan Hui, i fem av fem runder. Før dette var det utenkelig at en kunstig intelligens kunne vinne i det kompliserte og eldgamle brettspillet.

Tre måneder senere virket det like utenkelig at et menneske kunne slå maskinen.

AlphaGo hadde gjort en overbevisende figur i sine første tre seire mot verdensmester Lee, men i sin fjerde kamp gjorde maskinen en feil den ikke klarte å komme seg tilbake fra. 

Ble lurt til å gjøre feil

Menneskehetens håp i kampen mot maskinintelligensen skal ha fremprovosert en feil fra AlphaGo i trekk 79, som maskinen ikke klarte å se før det var gått åtte trekk til. Da var det for sent, ifølge grunnleggeren av firmaet som har utviklet AlphaGo, som kommenterte kampen direkte på Twitter: 

 

 

 

 

– Jeg er aldri blitt gratulert så mye bare for å vinne én kamp, sa Lee Se-dol da han møtte på pressekonferansen etter å brukt fem timer på å beseire maskinintelligensen, ifølge The Verge.

Det at det til nå uovervinnelige dataprogrammet gjorde en feil blir møtt med entusiasme blant de som forsker på kunstig intelligens. Det tyder på at programmet virkelig er det skaperne påstår det er: en maskin som lærer, og ikke bare er programmert til å spille Go.

– Det at den gjør feil er strengt tatt ikke en svakhet. Det er dette som er essensen i maskinlæring, sier Anders Kofod-Petersen, visedirektør ved Alexandrainstituttet i Danmark og professor II på institutt for datateknikk og informasjonsvitenskap på NTNU.

Før turneringen spådde verdensmesteren at han ville vinne fire av fem kamper mot den kunstige intelligensen. Siden maskinen allerede har vunnet tre av fem kamper, vil premien på en million dollar bli donert til veldedighet, ifølge Google. 

Tenker ut sitt neste trekk

Anders Kofod-Petersen er ekspert på kunstig intelligens. (Foto: NTNU)

AlphaGo skiller seg  fra tidligere dataprogram som har møtt mennesket til dyst, som for eksempel sjakkprogrammet Deep Blue som feidet med Garri Kasparov på 1990-tallet.

Deep Blue var en veldig avansert regnemaskin som var spesielt utviklet for å spille sjakk, den regnet ut 200 millioner sjakktrekk i sekundet. AlphaGo er ikke skapt for å spille Go. Den er skapt for å tenke, ifølge skaperne i Google-eide selskapet Deep Mind Technologies.

– I stedet for å eksplisitt programmere hva systemet skal gjøre, så lærer det. Det betyr jo i prinsippet at den er nødt til å gjøre feil av og til, sier Kofod-Petersen. 

Det er flere hundre octovigintillioner mulige trekk i Go, et tall som er så høyt at det har 168 nuller bak seg - og er mye, mye lengre enn antall atomer i vårt univers. For å kunne spille spillet på best mulig måte holder det ikke å regne ut beste trekk der og da.

Maskinen må forstå spillet. Programmererne har derfor bygd en kunstig intelligens som lærer på samme måte som et menneske: Av erfaring. 

Slik så brettet ut etter den 5 timer lange kampen mellom Lee See-dol og AlphaGo. Go er ett av verdens eldste og mest kompliserte spill, tross ganske enkle regler. Slik ligner det på sjakk, men har mange flere trekkmuligheter. Målet med spillet er å ha omringet spillbrettet med et større område av brikker enn motstanderen. (Foto: Ed Jones / NTB Scanpix)

Lærte reglene av å «se på» kamper

Deep Mind lot AlphaGo-programmet se trekk og data fra flere tusenvis av Go-kamper, spilt av de beste spillerne menneskeheten har å tilby. Dette brukte programmet til å lære seg spillereglene, og de strategiene som blir brukt av stormesterne.

Men det forklarer ikke hvordan maskinen har klart å utvikle strategier som selv de mest erfarne Go-mesterne sliter med å møte. 

– AlphaGo har vært eksponert for masse spill fra andre, men etter dette har den også begynt å spille mot seg selv. Det den lærer av disse spillene er å generalisere og lære en form for strategi. På den måten kan den lært taktikker som er bedre enn de den har sett mennesker bruke, forklarer Kofod-Petersen.

Powered by Labrador CMS