Annonse
Yngre mann med kort, brunt hår og briller står i mørkegrå dress og skjorte i samme farge og snakker på en scene.
– Det er litt det samme som med små barn. De må miste noe i gulvet noen ganger før de skjønner fysikken, sier forsker Morten Goodwin om roboter.

En robot som assistent? Dette er hindrene, sier forskere

Det er vanskeligere å trene opp en robot enn å trene opp ChatGPT, sier professor. 

Publisert

Selskaper prøver nå å lage menneskelignende roboter som kan brukes til lagerarbeid eller til og med hjemme hos folk. 

Gullfarget robot med menneskekropp står bak en hvit, kort, rund robot på en rød løper.
Kan en assistent-robot som C-3PO bli virkelighet?

Roboter som hjelper mennesker, er velkjente karakterer i science fiction-fortellinger. C-3PO og R2-D2 er trofaste hjelpere i Star Wars-filmene. 

Generativ kunstig intelligens har blitt veldig god til å forstå hva vi ber om og lage det for oss. 

Kan vi også snart få menneskelignende roboter som kan svare på spørsmål, forstå hva vi ber om og utføre det? 

Kanskje, men det er hindringer som må ryddes av veien, forteller norske forskere. 

Å plukke opp et glass: – Veldig vanskelig for en robot

– Jeg ganske sikker på at vi innen noen år kommer til å se en helt annen robotteknologi enn vi gjør i dag, sier Morten Goodwin. 

Han er professor ved Universitetet i Agder og ekspert på kunstig intelligens. 

– Jeg tror vi kommer til å få mye smartere roboter, som gjør at vi kan få assistent-roboter som går langt utover gressklipper-roboter eller støvsugere, sier Goodwin. 

Samtidig er det en del begrensninger ved robot-teknologien som må løses først, sier han. 

– Algoritmene for kunstig intelligens trenes millioner eller milliarder av ganger på ting. Det går fint med en chatbot eller en sjakkrobot. Du kan gjøre det i en datamaskin. 

Det er mer krevende å trene opp en robot som skal fungere i den fysiske verden.

Det å plukke opp et jordbær er forskjellig fra å plukke opp et glass. Begge knuser om det gjøres med feil styrke. Et glass er heller ikke bare et glass. Det er ulike former og typer. Et vinglass håndteres annerledes enn et brusglass. 

Vi mennesker er rågode på denne typen ting, sier Goodwin.

– Har jeg en kaffekopp med hank, et krus eller en stor eller liten kopp, så klarer jeg å plukke den opp uten å tenke. Men det er en veldig vanskelig oppgave for en robot. 

Det tar veldig lang tid om roboter skal trene på å plukke opp alle slags objekter igjen og igjen på ekte. 

Litt som små barn

Heldigvis kan roboten få unnagjort en del feil i simuleringer. 

– Man lager et virtuelt miljø, en simulering av den virkelige verden. Så trener man  der og flytter over i den fysiske verden etterpå, sier Goodwin. 

Men til slutt må roboten også øve i den virkelige verden. 

– Det er litt det samme som med små barn. De må miste noe i gulvet noen ganger før de skjønner fysikken. 

Mer utfordrende enn med tekst

Kai Olav Ellefsen er inne på noe av det samme. 

Han er førsteamanuensis ved Universitetet i Oslo og er med i forskningsgruppen for robotikk og intelligente systemer.

– Litt av grunnen til at ChatGPT har funket så bra, er at man kan høste ekstreme mengder med data. Man har brukt omtrent all teksten som finnes på internett for å trene opp ChatGPT.

Med roboter er dette mye vanskeligere. 

– Man har ikke YouTube for roboter. 

– Datatilgjengeligheten gjør at dette kan bli mye mer utfordrende for roboter enn det har vært for tekst.

Det positive er at læringen som en robot gjør, kan overføres til andre av samme type og til dels til andre modeller. 

Må roboten lære alle oppgaver hver for seg?

Roboter kan lære ved at et menneske demonstrerer en oppgave noen ganger. 

Hvis du har lært roboten å plukke opp et eple, vil den da også klare å plukke opp en mandarin eller melon? Eller må alt læres hver for seg? 

– Spørsmålet er knyttet til det som kalles for generalisering i maskinlæring. Når maskinen har lært seg en oppgave, hvor mye kan oppgaven endres før den ikke får det til lenger? sier Ellefsen. 

– Om man må lære roboten alt uavhengig, blir det mye vanskeligere å lage en hjemme-robot enn om man kan lære den en del basis-evner som kan kombineres. 

Innen generativ kunstig intelligens viste det seg at generaliseringen ble overraskende god når det ble store nok modeller og mye data,  sier Ellefsen. 

– De lærte seg å takle ting man ikke hadde trodd. 

– Kanskje det samme kan skje for roboter om de får store kunstige nevrale nettverk og nok data. Kanskje kan de da lære seg å håndtere ting som vi ikke hadde sett for oss og som de ikke var trent til direkte.

Det vet man ikke ennå, sier Ellefsen. 

– Noen forskere tror man må finne på noe annet enn det som gjøres i dag, for å få til  generaliseringen.

Bedre balanse og sensorer

Roboter har blitt bedre til å balansere på to bein. Batteriteknologi og sensorer som roboter bruker for å forstå omgivelsene, har blitt bedre, sier Ellefsen. 

Noe lignende ChatGPT kan omtrent plugges inn i hjernen og lar roboter snakke og forstå språk. De kan også skille mellom hva ulike objekter er for noe, som er nyttig når de skal orientere seg i for eksempel et hjem. 

– Det som er usikkert er om den KI-teknologien vi har i dag er nok til å få disse robotene til å takle situasjoner med veldig store variasjoner, slik som hjemme hos folk, sier Ellefsen. 

Oppfatter mye, men forstår de det? 

En robot som skal gjøre de samme tingene i et miljø som er likt hver dag, trenger ikke være så smart, sier Evi Zouganeli. Hun er professor innen robotikk og kunstig intelligens ved OsloMet– storbyuniversitetet.

Men i hverdagen i den virkelige verden kan det være mye som skjer og endrer seg som roboten ikke er forberedt på. 

– Da må roboten ha egentlig mange av de egenskapene som mennesker har. Den må kunne oppfatte hva som foregår, hvorfor og hva det vil bety. 

Det har skjedd en utvikling når det gjelder sensorer, sier også Zouganeli. De fungerer litt som våre sanser. 

Robotene kan ha avansert syn, hørsel, avstandssensorer og taktile sensorer, slik at de kartlegger og registrerer egenskapene til det de tar på. De kan oppfatte mye om sine omgivelser.

– Men det betyr ikke at de dermed forstår situasjonen, hva som foregår eller hva som er i ferd med å skje. Til det trengs det noe høyere intelligens, abstraksjonsevne, formål- og konsekvensforståelse og sunn fornuft. Vi er ikke i mål der.

La roboten prøve og feile

Med utviklingen som har skjedd, tror Zouganeli at menneskelignende roboter kan klare seg godt i strukturerte miljøer, slik som på et varehus. De kan også få til et enkelt samarbeid med mennesker der robotens oppgaver er adskilt og relativt godt definert.

I et mer dynamisk miljø blir det vanskeligere. 

Zouganeli nevner tre måter roboter kan lære på via maskinlæring. 

Roboter kan trene seg selv ved bruk av en prøve-og-feile-metode basert på kunstig intelligens som belønner gode valg og straffer dårlige valg. Det kalles reinforcement learning

– Denne kan fungere greit i kontrollerte miljøer og for enkle oppgaver, men kan også feile en del og derfor ikke uten videre anvendes mens roboten opererer i den virkelige verden. Men metoden er i stadig utvikling, sier Zouganeli. 

Kopiere på mennesker

Et viktig verktøy er simulering, sier hun. Her kan en digital versjon av roboten trene uten at det gjør noe at den feiler. Når roboten er ferdig utlært i å gjøre en oppgave, kan kunnskapen i prinsippet overføres til alle roboter av samme type. 

En annen lovende, KI-basert metode under utvikling er imitation learning, sier Zouganeli.

– Her lærer roboten ved å observere mennesker utføre oppgaven og kopiere dem. Istedenfor å reprogrammere roboten til å gjøre noe nytt, kan man altså lære den nye ting via demonstrasjoner. 

– Denne metoden kan foreløpig fungere for enkle oppgaver, som å åpne en skuff.  Men metoden er ikke moden nok og fungerer ikke bra for mer sammensatte oppgaver eller i ikke-kontrollerte, ustrukturerte miljøer der kontekst ikke er helt kjent eller lett å oppfatte.

I motsetning til mennesker, er roboter ennå ikke i stand til å lære seg nye oppgaver på egen hånd ved å gjenbruke det de har lært i en annen oppgave, sier Zouganeli.

– Det er ikke lett for en robot å vite hvilken del av oppgaven den skal gjenbruke, hva som er relevant kunnskap og ikke.

Få med deg ny forskning

MELD DEG PÅ NYHETSBREV

Du kan velge mellom daglig eller ukentlig oppdatering.

Powered by Labrador CMS