– Det er litt det samme som med små barn. De må miste noe i gulvet noen ganger før de skjønner fysikken, sier forsker Morten Goodwin om roboter.(Foto: Universitetet i Agder)
En robot som assistent? Dette er hindrene, sier forskere
Det er vanskeligere å trene opp en robot enn å trene opp ChatGPT, sier professor.
Selskaper prøver nå å lage menneskelignende roboter som kan brukes til lagerarbeid eller til og med hjemme hos folk.
Roboter som hjelper mennesker, er velkjente karakterer i science fiction-fortellinger. C-3PO og R2-D2 er trofaste hjelpere i Star Wars-filmene.
Generativ kunstig intelligens har blitt veldig god til å forstå hva vi ber om og lage det for oss.
Kan vi også snart få menneskelignende roboter som kan svare på spørsmål, forstå hva vi ber om og utføre det?
Kanskje, men det er hindringer som må ryddes av veien, forteller norske forskere.
Å plukke opp et glass: – Veldig vanskelig for en robot
– Jeg ganske sikker på at vi innen noen år kommer til å se en helt annen robotteknologi enn vi gjør i dag, sier Morten Goodwin.
Han er professor ved Universitetet i Agder og ekspert på kunstig intelligens.
– Jeg tror vi kommer til å få mye smartere roboter, som gjør at vi kan få assistent-roboter som går langt utover gressklipper-roboter eller støvsugere, sier Goodwin.
Samtidig er det en del begrensninger ved robot-teknologien som må løses først, sier han.
– Algoritmene for kunstig intelligens trenes millioner eller milliarder av ganger på ting. Det går fint med en chatbot eller en sjakkrobot. Du kan gjøre det i en datamaskin.
Det er mer krevende å trene opp en robot som skal fungere i den fysiske verden.
Det å plukke opp et jordbær er forskjellig fra å plukke opp et glass. Begge knuser om det gjøres med feil styrke. Et glass er heller ikke bare et glass. Det er ulike former og typer. Et vinglass håndteres annerledes enn et brusglass.
Vi mennesker er rågode på denne typen ting, sier Goodwin.
– Har jeg en kaffekopp med hank, et krus eller en stor eller liten kopp, så klarer jeg å plukke den opp uten å tenke. Men det er en veldig vanskelig oppgave for en robot.
Det tar veldig lang tid om roboter skal trene på å plukke opp alle slags objekter igjen og igjen på ekte.
Heldigvis kan roboten få unnagjort en del feil i simuleringer.
Annonse
– Man lager et virtuelt miljø, en simulering av den virkelige verden. Så trener man der og flytter over i den fysiske verden etterpå, sier Goodwin.
Men til slutt må roboten også øve i den virkelige verden.
– Det er litt det samme som med
små barn. De må miste noe i gulvet noen ganger før de skjønner fysikken.
Mer utfordrende enn med tekst
Kai Olav Ellefsen er inne på noe av det samme.
Han er førsteamanuensis ved Universitetet i Oslo og er med i forskningsgruppen for robotikk og intelligente systemer.
– Litt av grunnen til at ChatGPT har funket så bra, er at man kan høste ekstreme mengder med data. Man har brukt omtrent all teksten som finnes på internett for å trene opp ChatGPT.
Med roboter er dette mye vanskeligere.
– Man har ikke YouTube for roboter.
– Datatilgjengeligheten gjør at dette kan bli mye mer utfordrende for roboter enn det har vært for tekst.
Det positive er at læringen som en robot gjør, kan overføres til andre av samme type og til dels til andre modeller.
Må roboten lære alle oppgaver hver for seg?
Annonse
Roboter kan lære ved at et menneske demonstrerer en oppgave noen ganger.
Hvis du har lært roboten å plukke opp et eple, vil den da også klare å plukke opp en mandarin eller melon? Eller må alt læres hver for seg?
– Spørsmålet er knyttet til det som
kalles for generalisering i maskinlæring. Når maskinen har lært seg en
oppgave, hvor mye kan oppgaven endres før den ikke får det til lenger? sier Ellefsen.
– Om man må
lære roboten alt uavhengig, blir det mye vanskeligere å
lage en hjemme-robot enn om man kan lære den en del basis-evner som kan kombineres.
Innen generativ kunstig intelligens viste det seg at generaliseringen ble overraskende god når det ble store nok modeller og mye data, sier Ellefsen.
– De lærte seg å takle ting man ikke hadde trodd.
– Kanskje det samme kan skje for roboter om de får store kunstige nevrale nettverk og nok data. Kanskje kan de da lære seg å håndtere ting som vi ikke hadde sett for oss og som de ikke var trent til direkte.
Det vet man ikke ennå, sier Ellefsen.
– Noen forskere tror man må finne på noe annet enn det som gjøres i dag, for å få til generaliseringen.
Bedre balanse og sensorer
Roboter har blitt bedre til å balansere på to bein. Batteriteknologi og sensorer som roboter bruker for å forstå omgivelsene, har blitt bedre, sier Ellefsen.
Noe lignende ChatGPT kan omtrent plugges inn i hjernen og lar roboter snakke og forstå språk. De kan også skille mellom hva ulike objekter er for noe, som er nyttig når de skal orientere seg i for eksempel et hjem.
Annonse
– Det som er usikkert er om den KI-teknologien vi har i dag er nok til å få disse robotene til å takle situasjoner med veldig store variasjoner, slik som hjemme hos folk, sier Ellefsen.
En robot som skal gjøre de samme tingene i et miljø som er
likt hver dag, trenger ikke være så smart, sier Evi Zouganeli. Hun er professor innen robotikk og kunstig intelligens ved OsloMet– storbyuniversitetet.
Men i hverdagen i den virkelige verden kan det være mye som skjer og endrer
seg som roboten ikke er forberedt på.
– Da må roboten ha egentlig mange av de egenskapene som
mennesker har. Den må kunne oppfatte hva som foregår, hvorfor og hva det vil
bety.
Det har skjedd en utvikling når det gjelder sensorer, sier også Zouganeli. De fungerer litt som våre sanser.
Robotene kan ha avansert syn, hørsel, avstandssensorer
og taktile sensorer, slik at de kartlegger og registrerer egenskapene til det de
tar på. De kan oppfatte mye om sine omgivelser.
– Men det betyr ikke at de dermed forstår situasjonen, hva
som foregår eller hva som er i ferd med å skje. Til det trengs det noe høyere
intelligens, abstraksjonsevne, formål- og konsekvensforståelse og sunn fornuft.
Vi er ikke i mål der.
La roboten prøve og feile
Med utviklingen som har skjedd, tror Zouganeli at menneskelignende roboter kan klare seg godt i strukturerte miljøer, slik som på et varehus. De kan også få til et enkelt samarbeid med mennesker der robotens oppgaver er adskilt og relativt godt definert.
I et mer dynamisk miljø blir det vanskeligere.
Zouganeli nevner tre måter roboter kan lære på via maskinlæring.
Roboter kan trene seg selv ved bruk av en prøve-og-feile-metode basert på kunstig intelligens som belønner gode valg og straffer dårlige valg. Det kalles reinforcement learning.
Annonse
– Denne kan fungere greit i kontrollerte miljøer og for enkle oppgaver, men kan også feile en del og derfor ikke uten videre anvendes mens roboten opererer i den virkelige verden. Men metoden er i stadig utvikling, sier Zouganeli.
Kopiere på mennesker
Et viktig verktøy er simulering, sier hun. Her kan en digital versjon av roboten trene uten at det gjør noe at den feiler. Når roboten er ferdig utlært i å gjøre en oppgave, kan kunnskapen i prinsippet overføres til alle roboter av samme type.
En annen lovende, KI-basert metode under utvikling er imitation learning, sier Zouganeli.
– Her lærer roboten ved å observere mennesker utføre oppgaven og kopiere dem. Istedenfor å reprogrammere roboten til å gjøre noe nytt, kan man altså lære den nye ting via demonstrasjoner.
– Denne metoden kan foreløpig fungere for enkle oppgaver, som å åpne en skuff. Men metoden er ikke moden nok og fungerer ikke bra for mer sammensatte oppgaver eller i ikke-kontrollerte, ustrukturerte miljøer der kontekst ikke er helt kjent eller lett å oppfatte.
I motsetning til mennesker, er roboter ennå ikke i stand til å lære seg nye oppgaver på egen hånd ved å gjenbruke det de har lært i en annen oppgave, sier Zouganeli.
– Det er ikke lett for en robot å vite hvilken del av oppgaven den skal gjenbruke, hva som er relevant kunnskap og ikke.