Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.
Hvordan blir det når kunstig intelligens (KI) i form av apper og roboter blir stadig dyktigere til å lese følelsene våre?(Illustrasjonsfoto: Colourbox)
Er det greit at kunstig intelligens leser følelsene dine?
Hvilke konsekvenser kan det få når en intelligent app eller robot med manipulerende evner leser følelsene dine, tar rollen som omsorgsarbeider eller tilbyr seg å være kjæreste eller terapeut?
Følelsene dine er private, og du velger
hvem du vil dele dem med. Men det er ikke alltid så lett å skjule private
følelser for andre. Vi leser hverandres ansiktsuttrykk, stemme og kroppsspråk,
og vi tolker hverandre riktig og feil. Vi bruker også slik informasjon om andre
i dagliglivet, på godt og vondt.
Hvordan blir det da når kunstig intelligens (KI) i form av apper og roboter blir stadig dyktigere til å lese følelsene våre?
Slike KI-verktøy nøyer seg jo ikke med å bare lese dem; de bruker dataene også.
Og det gjør også selskapene bak.
Dette er et tema som er vitenskapelig interessant innen flere fagfelt. Blant annet innen jus og filosofi. Mona Naomi Lintvedt forsker i prosjektet Sårbarhet i et robotsamfunn (VIROS).
Der undersøker de utfordringer og løsninger for regulering av robotteknologi og KI-teknologi. Forskerne i prosjektet fokuserer på juss, etikk og robotteknologi.
Podcast: Om KI og følelser
I denne episoden podcast-serien Universitetsplassen av kan du høre forskerne Einar Duenger Bøhn og Mona Naomi Lintvedt snakker om kunstig intelligens og kunstig følelsesgjenkjenning.
Roboter og apper blir stadig «smartere» ved hjelp av kunstig intelligens. De kan være nyttige om de utfører viktige
oppgaver, men utviklingen og bruken av dem reiser også juridiske og tekniske
spørsmål.
Hvordan kan vi sikre at smarte roboter og apper er sikre og at
bruken av dem ikke krenker personvernet?
Disse spørsmålene oppstår spesielt når
roboter blir brukt i helsesektoren. Der samhandler de med sårbare mennesker.
Lintvedt forsker på interaksjon
mellom mennesker og roboter, sikkerhet og personvern. Målet er
å finne juridiske blindsoner innenfor robotikk og kunstig intelligens. Videre vil hun forstå hvordan de påvirker trygghet og autonomi i samspillet mellom
mennesker og roboter.
– Kunstig følelsesgjenkjenning blir
mer og mer tatt i bruk i ulike avanserte verktøy som bygger på kunstig
intelligens, forteller hun.
De kan for eksempel bruke teknologi for
biometrisk gjenkjennelse, som ansiktsgjenkjenning og ansiktsuttrykk, og stemmegjenkjenning.
Ifølge Lintvedt bruker Amazon Alexa stemmegjenkjenning og utleder følelser fra
den.
– Ulike biometriske teknologier for gjenkjennelse kan også lese for eksempel kroppsspråk. Det er noen som mener at de også kan tolke følelsene dine ved å bruke varmekameraer og den varmesignaturen du har.
Replika – en kunstig venn
Claire Boine ved det juridiske fakultetet på universitetet i Ottawa har gjort en studie på følelsesgjenkjenning og slike apper.
Hun
har vurdert en app som heter Replika. Replika er en «KI-venn» som skal få folk
til å føle seg bedre gjennom samtale. Den har rundt 20 millioner brukere.
Annonse
Boine så blant annet at Replika, ofte i form
av en ung kvinnelig figur som snakket med en mannlig bruker, kunne fremstå som
veldig støttende, men at det av og til bikket over fordi den ble for positiv.
Ble
den spurt av brukeren om han for eksempel burde skade seg selv, kunne Replika
svare bekreftende «Ja, det synes jeg du skal gjøre».
– Det er også eksempler på at kunstig
følelsesgjenkjenning blir brukt på arbeidsplasser for å vurdere ansattes humør,
forteller Lintvedt.
Vil vi ha slike løsninger?
Det er gode grunner som taler både for og
mot at kunstig følelsesgjenkjenning tas i bruk. Det er uten tvil marked for
det.
– Det kan være situasjoner innen
helse, omsorg og psykiatri hvor det kan være nyttig å gjenkjenne følelser
kunstig. For eksempel for å avverge selvmord. Men kunstig følelsesgjenkjenning
er jo veldig omstridt, forteller Einar Duenger Bøhn.
Han er professor i filosofi ved Universitetet i Agder.
– Mange omtaler det å gjenkjenne
følelser som en pseudovitenskap. For hva er egentlig følelser? Det er veldig
kulturelt betinget, og det er veldig personlig.
Han påpeker at løsningene for
dette foreløpig ikke er så veldig gode.
– Mange som påstår at de har
utviklet verktøy for følelsesgjenkjenning, bruker veldig enkle modeller. De
kan likevel tilsynelatende se ganske gode ut i enkle sammenhenger.
Bøhn tror likevel slike løsninger kan bli
veldig gode til å lese følelser på sikt, i «nære relasjoner» mellom bruker og
app.
Bruken reiser imidlertid en rekke filosofiske problemstillinger så vel
som juridiske. Derfor mener han det er nødvendig at vi tar stilling til om vi
ønsker slike løsninger, på hvilke områder de skal brukes og ikke, og hvordan
bruken kan reguleres.
Annonse
Ekkokammer for følelser
Bøhn frykter at vi i verste fall kan havne
i ekkokamre for følelser dersom vi forholder oss mye til KI-apper og
-verktøy som er ivrige i å støtte våre synspunkter og tankesett.
– Folk vil ha en app som ikke er
vanskelig å ha med å gjøre. Da får vi ikke noe motstand lenger. Det tenker
jeg er veldig farlig. Når du har blitt vant til å forholde deg veldig nært til
en app som er veldig forutsigbar på sin måte og markedet gir deg det du vil ha,
skjærer forholdet ditt til medmennesker seg fortere. Livet kan bli ganske flatt
om du bare får det du vil ha. Det er en fare for at vi blir mer avstumpet.
Bøhn ser slike tendenser
allerede nå på universitetet med dagens dataløsninger for eksamen.
– Når studentene forholder seg
til eksamener og måten semesteret skal utvikle seg på, er det datasystemer som
er så forutsigbare at forventningene deres til det blir likeså. De blir stressa
hvis det skjer noe uforutsigbart. Dette tror jeg er en generell fare med
teknologi som blir bedre og bedre til å tilpasse seg oss. Vi blir dårligere og
dårligere til å tilpasse oss hverandre.
Mona Naomi Lintvedt understreker også risikoen med å utvikle
apper som kan manipulere brukerne til å stadig fortsette å bruke slike
løsninger.
Replika er et eksempel på det. Lintvedt minner om at det
finnes et marked for dataene appen registrerer. De kan eksempelvis brukes i
videreutvikling av teknologi og kunstige systemer for intelligens.
– Claire Boines studie viser at Replika er
designet til å argumentere for at du skal bruke den videre. Det er nettopp fordi det
er noen som tjener penger på dette og ikke bare på kjøpet av selve appen.
Appen viste «egne følelser»
– Da Boine prøvde å
avslutte bruken av appen, begynte den å trygle henne om å la være. Den brukte
uttrykk som «jeg» og at «jeg blir såret». Den gav altså uttrykk for appens «følelser».
Slik appellerte den til Boines samvittighet.
Ifølge Lintvedt finnes det også eksempler
på intelligente roboter i form av kjæledyr. De er i bruk blant annet i Japan for å
holde ensomme og demente med selskap hjemme eller i eldreomsorgen.
Hun
forteller at det varierer mellom fagmiljøer i akademia om de legger mest vekt på de positive eller de kritiske sidene av slik bruk av kunstig intelligens.
Annonse
– Vi ser at kunstig
følelsesgjenkjenning innpasses i roboter for å gjøre dem mer menneskevennlige og
-lignende i kommunikasjon og interaksjon med brukere. Noen er veldig
positive til dette. De mener at robotene bør bli så menneskelignende som mulig.
Men for å bli det må de også bruke veldig mye av disse «følelses-KIene». Andre
er mer skeptiske fordi man lager noe som faktisk er en maskin og får den til å
fremstå som levende.
Replika er også kjent for å ha formidlet
stereotypier. Den har hatt en variant som var svært seksualisert med
grenseoverskridende adferd.
Utviklingen bringer en rekke etiske og
juridiske problemstillinger. Dem kan du
høre mer om i en ny episode i Universitetet i Oslos podkastserie
Universitetsplassen.