På et kontor gjør en forsker myke, gymnastiske håndbevegelser foran nettbrettet sitt.
–Vi jobber med å få til et samspill mellom meg og iPad-en her, der jeg ikke trenger å berøre displayet, sier Petter Risholm.
Grunnteknologien var klar for noen år siden. Sammen med kolleger på Sintef IKT arbeider han nå med å utvide funksjonen så de kan klare å gripe og flytte objekter på displayet.
Flere ord
Da den norske bedriften Elliptic Labs kontaktet Sintef-forskerne i 2008, lå fokuset på berøringsfri samhandling med stasjonære og bærbare datamaskiner. I dag dreier det om mobiltelefoner og nettbrett.
– Vi prøver å utvide vokabularet og få til mer detaljert samspill, forteller Risholm.
– Vi har lenge scrollet og bladd på skjerm. Nå jobber vi med å få til å gripe og slippe objekter, eller si stopp ved å holde opp en hånd.
Brødbaking
Forskerne ser for seg dette som en utvidet tjeneste; det skal ikke erstatte funksjonene i et touch-display.
– Men la oss si at du står og baker brød, er klissete på fingrene og skal sjekke på nettbrettet hvor mye hvetemel det egentlig sto i oppskriften; i slike tilfeller ville det være kjekt å slippe å berøre skjermen, sier Risholm.
– Eller du jobber på et verksted og er oljete på hendene når du skal sjekke et telefonnummer på mobilen.
I tillegg er det mange av oss som sliter med muse-arm, og da kan det være en fordel å samspille med skjermen gjennom større hånd- og armbevegelser i lufta.
I vinden
Internasjonalt er det mange bedrifter som satser på området berøringsfri interaksjon, og mange teknologier konkurrerer.
Det berøringsfrie samspillet er mye i bruk i spillindustrien. Risholm nevner Microsoft sin Kinect-sensor som det mest kjente eksemplet . Den kan gjenkjenne kroppspositurer og store armbevegelser.
Innenfor mobile enheter er ikke berøringsfri interaksjon like utbredt enda, men noen systemer har kommet ut på markedet.
På Samsungs nyeste mobiltelefon kan man for eksempel bla i en e-bok ved å bevege fingrene foran en integrert infrarød sensor. Men ifølge Risholm har systemet innskrenkende muligheter og synsfelt.
Annonse
– Samsung satser på å bruke enkle infrarøde sensorer som teknologi. Derfor har den begrenset sensitivitet og gjenkjenner ikke alltid kommandoen.
– For å kunne bruke tjenesten, må brukeren alltid utføre kommandoen rett over sensoren som gjerne er plassert på toppen av PC-en, mobilen eller iPad-en. Beveger du fingre eller hånd litt bort, skjer det ingenting, sier Risholm.
Ultralyd gir gevinst
Derfor vil de norske forskerne heller benytte ultralyd. Da kan hele skjermen benyttes – og man får en stor arbeidsflate.
– Systemet oppfatter hva du gjør både foran og til siden for skjermen. Dette gjør området for samspill stort, og det gjør det mulig å styre enheten uten å måtte skygge for skjermen.
– I tillegg oppfatter mobilen eller nettbrettet hva du gjør så lenge du beveger deg i området fra 2 til 30 centimeter fra skjermen, sier Risholm.
Utfordringen er å gjøre systemet så robust at det ikke er rom for misforståelser, men slik at kommandoen man gir, alltid blir forstått. Dette blir spesielt utfordrende når forskerne skal utvide til mer avanserte gester som gripe- eller slippe-kommandoer.
Må være billig
Framtidens teknologi for berøringsfri samhandling, må være billig og strømgjerrig. Systemet må være smått og enkelt så det kan integreres i mobile enheter, og det må ha stort arbeidsvolum slik at samspillet blir relativt detaljert.
– Internasjonalt benyttes det både kameraer og infrarødt lys, men vi ser at vår teknologi med ultralyd har egenskaper som oppfyller mange av disse kravene, sier Tom Kavli i Elliptic Labs.
– Den store fordelen er at vi tilbyr et stort volum for å oppfatte og skjønne gestene til en bruker. Man er ikke begrenset til enheten på toppen, men kan operere foran hele skjermen – noe som også er det beste ergometrisk.
Kavli forteller at feltet er i rivende utvikling og at nye, spennende bruksområder vil åpne seg med videre utvikling av teknologien.
Annonse
Nå vil firmaet jobbe mot en kommersialisering, og ser for seg at de vil være ute på markedet om få år.