Annonse

Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.

Dette kameraet utnyttar korleis lyset oppfører seg i tid.

Slik kan robotar sjå betre under vatn

Robotar som kan orientera seg på land, famlar som i ei tåke når dei kjem på botnen av havet. Ny teknologi kan hjelpa dei å oppfatta omgjevnadane betre.

Publisert

Det er ikkje lenger nyhende at robotar utfører arbeidsoppgåver på landjorda. Bruk av undervassrobotar til industri- og forskingsføremål har openberre fordelar. 

Men 3D-kameraa som roboten «ser» med, fungerer dårlegare under vatn enn i luft.

– På land finn vi 3D-kamera overalt: mobiltelefonar, industri, sjølvkøyrande bilar og så vidare. Men lys som går gjennom vatn, er litt som lys i tåke. Skrur du på frontlysa på bilen, ser du ikkje betre, men du vert blenda av tåka, seier Jens T. Thielemann, forskar ved Sintef .

– Vatnet er fullt av partiklar som spreier lyset, defokuserer det, på same måte som dei små vassdropane som utgjer tåka, forklarer han. 

– Løysinga vert mykje rimelegare fordi vi til dels kan ta utgangspunkt i hyllevarekomponentar, seier forskar Jens T. Thielemann.

Fokuserte på djupnebilete

Thielemann har forska på bruk av 3D-kamera under vatn.

– Vi tok utgangspunkt i korleis lys oppfører seg i vatn i tid og korleis det oppfører seg i vatn i rom. To ulike prosjekt som utvikla to ulike teknikkar, der teknikkane utfyller kvarandre, seier han.

– Det eine vi gjorde som var nytt, var å fokusera på djupnebilete, i motsetning til andre, som gjerne berre har sikta på å gjera intensitetsbileta betre.

I det fyrste prosjektet sender kameraet ut ein kort lyspuls mot objektet som roboten skal sjå. Lysstrålen vil fyrst treffa «tåka». Delar av strålen vil bli spreidd eller sendt tilbake. Men strålen held fram til den treffer objektet og sender då eit signal tilbake.

Mykje rimelegare løysing

– Vi brukte ein veldig rask laser og biletbrikke som saman prøvde seg framover: her er det tåke, tåke her, tåke, tåke … Oi, der kom objektet. Ved å prøva oss framover på denne måten, fekk vi djupneinformasjonen.

Det er dette Thielemann meiner med lyset sin oppførsel i tid. I staden for å registrera alt som ligg mellom kameraet og objektet, skal kameraet berre lesa signalet det får frå objektet.

– Teknikken har vore kjend lenge, men har kravd kompliserte og kjempedyre komponentar. Det andre nye vi gjorde, var nemleg å bruka den same halvleiarteknologien som vert brukt i vanlege kamera i staden for. Vi kan til dels ta utgangspunkt i hyllevarekomponentar. Dei gjer løysinga mykje rimelegare, forklarar Thielemann.

Vidareutvikla teknikk frå landjorda

Ved å utnytta lyset sine eigenskapar i tid klarte dei å få presise bilete ned til om lag ein centimeter nøyaktigheit.

For å kunne måle djupna med ei nøyaktigheit på millimeteren, var det nødvendig å ta utgangspunkt i korleis lyset oppfører seg i rom.

– For dei næraste meterane kombinerer vi menneske informasjon frå dei to augo våre for å finne djupn til tinga rundt oss. På same måte kan vi byggje kamera som brukar informasjonen frå to ulike vinklar.

For å få til dette under vatn vidareutvikla Thielemann og kollegane ein annan teknikk som er i bruk på landjorda, og bygde eit kamera basert på det.

– I staden for to kamera som to «auge», byter vi ut det eine med ein projektor som sender ut eit kontrollert lysmønster på scena. Og ikkje berre eitt, men mange ulike mønster som til saman dannar ein veldefinert kode, forklarar han.

Dette kameraet utnyttar korleis lyset oppfører seg i rom.

Teknikkane utfyller kvarandre

– Det er mange moglege kodar ein kan senda ut. Igjen er problemet partiklane i vatnet, som alle kodane blir forstyrra av. Men ved å forstå korleis partiklane verkar inn på lyset si ferd gjennom vatnet, fant vi fram til dei kodane som vart minst forstyrra. Slik lukkast vi med å få resultat som er rundt dobbelt så gode som klassiske metodar. Sagt på ein annan måte: vi kunne oppretthalda nøyaktigheita med om lag halvparten så god vasskvalitet.

Denne teknikken har ein nøyaktigheit ned til ein millimeter, men er svakare på lengre avstandar. Det gjer at dei to teknikkane utfyller kvarandre, forklarar Thielemann.

– Den fyrste fungerer best på avstandar mellom ein til sju–åtte meter, den andre mellom nokre titals centimeter og halvannan meter. Den eine viser roboten kor undervassinstallasjonen er, den andre let roboten ta tak i han og gjer det mogleg å sjekke at han er utan skadar.

Video filma med spesialkamera

Videoen nedanfor viser fisk som sym framfor eit båtvrak. Det er filma med kameraet som brukar lysets eigenskapar i tid. 

Fargen viser djupn til fisken. Til venstre djupnebilete, til høgre er intensitet og djupn kombinerte slik at fargen viser djupn (klikk på symbolet nede til høgre for å sjå større versjon).

Referanse: 

Jens T. Thielemann: Optical 3D imaging for subsea and space applications. Doktoravhandling ved Universitetet i Oslo, 2024. Sammendrag.

Powered by Labrador CMS