Lee Se-dol er 18 ganger verdensmester i det urgamle og svært komplekse kinesiske spillet Go. Mot alle odds har nå et dataprogram fra Google Deep Mind vunnet over denne koreanske spillkjendisen. Programmet AlphaGo vant første omgang av fem i en turnering i Sør-Koreas hovedstad Seoul. (Foto: Emily Clarke/Google)

Verdensmester slått to ganger av datamaskin i superspillet Go

Gjennombrudd for kunstig intelligens i spillet som får sjakk til å ligne ludo.

Artikkelen er oppdatert 10.3.2016 k. 10:35.

Googles program AlphaGo  vant i dag den andre av fem runder over den koreanske spilleren Lee Se-dol. Lee er en nasjonal berømthet med 18 verdensmesterskap bak seg.

Dette er en enda større seier for dataprogrammet enn da den europeiske mesteren Fan Hui ble slått i januar i år. Dette var første gang et dataprogram hadde slått en profesjonell Go-spiller.

Lee er regnet som en enda bedre spiller enn europamesteren Fan. Lee er verdens nest beste spiller i det 2500 år gamle kinesiske brettspillet. Reglene er enkle, men kompleksiteten enorm.

– Vi trenger noen av Lees format for å utforske hva AlphaGo kan klare, sa en av forskerne bak DeepMInd, Demis Hassabis, på en pressekonferanse etter andre runde.

Opptak av den andre omgangen i turneringen mellom Lee og AlphaGo i Seoul.

Etterligner hjernen

Antall mulige trekk i Go er et tall med over 750 nuller etter. Tilsvarende for sjakk er et tall med rundt 120 nuller etter. Antall atomer i universet er et tall med rundt 80 nuller etter.

Derfor kan ikke dataprogrammet tråkle seg gjennom alle mulige trekk, men må bruke metoder som etterligner menneskehjernen – nevrale nettverk.

Ved å spille mot seg selv mange ganger har dataprogrammet erfart hvilke trekk som gir best resultat. Slik kan det snevre inn mulighetene og perfeksjonere seg.

Video fra Google Deep Mind beskriver utviklingen av datateknologien deres.

Lærer av erfaring

Programmet AlphaGo er utviklet av Deep Mind Technologies, et britisk selskap som ble kjøpt opp av Google i 2014.

Ifølge utviklerne bak AlphaGo skiller dette programmet seg fra andre spillprogrammer, som IBMs sjakkprogram Deep Blue og Jeopardy-programmet Watson.

Disse programmene var laget for et spesielt formål. DeepMind hevder at den kunstige intelligensen bak AlphaGo ikke er forhåndsprogrammert. Den lærer av erfaring.

Kan lære alt mulig

AlphaGo må altså ikke forhåndsprogrammeres med reglene for Go. I steden lærer det seg spillereglene på samme måte som mennesker lærer. Det prøver og feiler, taper og vinner – gjør erfaringer.

De nevrale nettverkene kan i prinsippet lære alle typer systemer. Tidligere har DeepMind prøvd seg på arkadespill fra 1970- og 80-tallet, Pong, Breaklut, Space Invaders og andre.

Så avanserte programmet til mer avanserte 3D-spill fra 1990-tallet, som Doom. Nå er det altså i ferd med å vinne ett av verdens mest komplekse spill.

Go er ett av verdens eldste og mest kompliserte spill, tross ganske enkle regler. Slik ligner det på sjakk, men har mange flere trekkmuligheter. Målet med spillet er å ha omringet spillbrettet med et større område av brikker enn motstanderen. (Foto: Emily Clarke/Google)

Ny type nevrale nettverk

Det endelige målet for utviklerne bak DeepMind er å lage dataprogrammer som kan lære alt mulig.

– Å forsøke å destillere intelligens inn i en konstruksjon av datainstruksjoner kan vise seg å være den beste veien mot å forstå noen av de vedvarende mysteriene i hjernene våre, slik som bevissthet og drømmer, skrev en av stifterne bak DeepMInd, Demis Hassabis, i en  kommentar i tidsskriftet Nature i 2012.

Artikkelen ble skrevet i forbindelse med hundreårsdagen for Alan Turings fødsel. Matematikeren Turing var en av pionerene bak kunstig intelligens.

Målet med dataprogrammet DeepMind er å utvikle en ny type nevrale nettverk i form av det som kalles en turingmaskin. Den kan ikke bare kan gjenkjenne mønstre, men også hente og lagre informasjon. Den kan huske.

Dette er et viktig skritt forover som har muligheten til å gjøre datamaskiner mer lik menneskehjerner enn noensinne tidligere, ifølge en artikkel i MIT Technology Review fra oktober 2014.

Ikke bare for spill

AlphaGo er altså det foreløpig siste forsøket på å utvikle slike lærevillige datamaskiner.

Turneringen i Seoul er den foreløpig tøffeste utfordringen for den kunstige intelligensen.  Og nå har AlphaGo overraskende vunnet første runde.

– Selv om spill er den perfekte plattformen for å utvikle og prøve ut kunstig intelligens raskt og effektivt, er det endelige målet å bruke denne teknologien på viktige problemer i den virkelige verden, skriver David Silver og Demis Hassabis fra Google DeepMind i et innlegg på Google Research Blog fra januar i år.

De neste fire rundene av spillet mellom Lee og AlphaGo vil utkjempes i dagene fram til tirsdag 15. mars neste uke, lokal tid.

Lenker:

Google Asia Pacific Blog, med informasjon om turneringen mellom Lee og AlphaGo.

AlphaGo: Mastering the ancient game of Go with Machine Learning, innlegg på Google Research Blog, 27. januar 2016.

Demis Hassabis: Model the brain´s algorithms, kommentar i Nature, 23. februar 2012.

Google’s Secretive DeepMind Startup Unveils a “Neural Turing Machine”, artikkel i MIT Technology Review, oktober 2014.

Powered by Labrador CMS