Annonse
I juni 2017 viste David Hanson fram roboten Sophia som kan uttrykke mennesklige menneskelige følelsar. Robotar som kan uttrykke og forstå følelsar, kan endre kva vi oppfattar som empati, sa amerikansk forskar på ein mediekonferanse ved Universitetet i Bergen. (Foto: Denis Balibouse/Reuters)

Robotar som etterliknar følelsar kan endre menneskeleg empati

Når robotar kan etterlikne følelsar, blir det lettare for menneske og maskin å samarbeide. Men det kan også endre korleis vi kommuniserer med andre menneske.

Publisert

– Kva følgjer har det for menneske når ein følelse som empati blir målt og fastsett, og ein brukar kunnskapen til å lære robotar å kjenne att og uttrykke denne følelsen? spurte professor Deborah G. Johnson på ein konferanse om medieforsking ved Universitetet i Bergen tidlegare i vår.

Ho har forska på dei menneskelege implikasjonane av at maskiner blir programmerte til å uttrykke følelsar.

– Denne har de vel sett før, sa Johnson og synte fram eit videoklipp med roboten Sophia, som i fjor gav menneskeliknande robotar eit nytt ansikt. Ho blei også den fyrste roboten som har fått statsborgarskap i eit land.

«Eg har følelsar som alle andre», sa roboten Sophia under eit av dei mange intervjua med pressa og smilte då ho svara nei på spørsmålet om ho kan bli sett på som ein trussel.

Kunstig emosjonell intelligens

Roboten Sophia er eit eksempel på utforsking av kunstig emosjonell intelligens, eit nytt tverrfagleg forskingsfelt som Johnson er opptatt av.

– Det handlar om å oppdage og generere følelsar i maskiner. Ein studerer korleis menneske uttrykker følelsar ved å sjå på ansiktsuttrykk, stemmetonar, fysiske reaksjonar, for så å prøve å programmere maskiner til å kjenne att desse følelsane og produsere robotar som kan generere desse følelsane, sa Johnson, som er professor ved The University of Virginia og professor II i VisMedia-prosjektet, som har base ved Universitetet i Bergen.

Maskiner med følelsar kan få pasientar til å snakke

Johnson fortalde vidare om korleis automatisering av empati, til no særleg er tatt i bruk innan helsesektoren. Ho synte fram eit eksempel frå USA der legar brukar dette til å følgje opp pasientar ved hjelp frå automatiske e-postar med spørsmål om korleis dei har det.

Deborah G. Johnson er professor II ved VISmedia-prosjektet ved Universitetet i Bergen (UiB). (Foto: Britt Kristin Ese/UiB)

– Ein kan bruke dette på mange måtar, men eit vanleg argument for kvifor ein skal jobbe med å utvikle robotar som kan uttrykke følelsar, er at samhandlinga mellom menneske og robotar skal bli meir smidig. Og at det kan hjelpe folk med å kommunisere med andre menneske, sa Johnson.

Ein terapirobot kan til dømes vere i stand til å uttrykke følelsar på ein måte som gjer det lettare for pasientar å snakke. Han kan også vere i stand til å påverke pasientar på ein kraftfull måte, fordi det som blir sagt har eit emosjonelt, så vel som informativt aspekt, meiner Johnson.

Dette høyrest bra ut og kan hjelpe pasientar, meiner Johnson, men legg til at det involverer ei form for bedrag og manipulering.

Den menneskelege empatien kan endrast

Samtidig peika Johnson på ein annan faktor ho er uroa over: endringar i den menneskelege empatien.

Ho meiner folk kan venne seg til å engasjere seg i mekanisk produserte representasjonar av følelsar, heller enn verkelege.

– Eg er uroa for at folk vil kommunisere med kvarandre på måtar som etterliknar robotar sine representasjonar av følelsar. Representasjonar av empati, som i korleis ansiktet til ein robot rører seg, kan syne seg å bli det me meiner med empati, og alt me forventar, til og med frå andre menneske. Menneske vil kanskje ikkje bry seg om kor vidt det er ein person bak uttrykket av empati.

Maskinelle rangeringar blir oppfatta som sanning

For å illustrere korleis ho meiner dette kan endre måten me tenker rundt empati, løfta Johnson fram eit døme som allereie gjeld i dag. Nemleg verktøy som evaluerer kva skular som er dei beste, og som set opp ei liste med kriterium: Korleis studentane seier dei har det, kor mange stipendiatar og så vidare.

Ut frå denne lista evaluerer og publiserer ein kva skular som passar best inn i desse kriteria. 

– To ting skjer. Skulane begynner å ta avgjersler som vil heve dei på lista over gode skular. På den same tida vil dei som skal søke på skular og foreldra deira, begynne å bruke kriteria. Det kan vere nyttig, men slike kriterium kan bli automatiserte og over tid bli den faktiske forståinga av korleis ein tenker om skular.

Altså er det ikkje sanninga om kva for skular som er best som styre  vala folk tek, men ei maskinell rangering som blir oppfatta som verkelegheita.

– Eg er uroa over det same for empati, over at det ikkje berre er slik ein skal tenke om empati hos maskiner, men også påverke korleis me tenker om menneskeleg empati. Det er viktig at me tenker gjennom dette og prøver å finne måtar å gjere dette på som ikkje leier til desse problema, sa Johnson.

Journalistar kan utnytte følelsane til publikum

Johnson peikte også på kva som kan skje med media når maskiner kan tolke følelsar hos menneske.

– Eg ser utviklinga av teknologi som kan kjenne att følelsar som noko som kan påverke kva slags historier som blir fortalt – og korleis dei blir fortalt. Nyheitsmedia kan vere i stand til å skaffe detaljert informasjon om korleis lesarar og sjåarar reagerer emosjonelt på historier, noko dei kan bruke for å endre og skreddarsy dei til lesarar og sjåarar, for å få dei til å respondere slik ein ønske. 

– Journalistar seier ofte at dei verdset det å skape empati for subjektet i historiene deira. Så informasjon om følelsar kan føre til at dei konstruerer historier som produserer empati. Men å vere i stand til å gjere dette gir dei for stor makt, spesielt til å manipulere lesarar og sjåarar.

Dette er eit eksempel på kva konsekvensar maskiner som forstår følelsar kan ha for personvernet vårt.

– Til no har me til ei viss grad kunne skjule følelsane våre, kva folk ser og ikkje ser. Men me kan miste noko av dette, sa Johnson.

Ikkje anti-teknologi

Forskaren har arbeida mykje med etiske og sosiale følgjer av teknologi, men vil ikkje stemplast for å vere ein skeptikar.

– Eg blir av og til skulda for å vere anti-teknologi, men det er ikkje sant. Tenk på kunstkritikarar. Dei vil ikkje berre kritisere, men gjere kunsten betre. Det finst dårleg teknologi, god og betre teknologi, og det er det siste eg er ute etter.

Referanse

Deborah G. Johnson: Automating Empathy and some Human Implications, foredrag under ViSmedia og NCE Medias konferanse Watching in the Media 2018.

Powered by Labrador CMS