Klarer du å se forskjellen? Den ene kvinnen er fra en ekte video, den andre fra en falsk. Svaret får du senere i artikkelen.(Foto: Mottelson et al/Collage: Videnskab.dk)
Kan du se forskjell? «Deepfakes»-videoer visker ut grensen mellom sant og usant
Kamala Harris har vært offer for denne teknologien. Den danske statsministeren har også blitt utsatt for den. «Deepfakes» skaper dyp bekymring.
Frederik Guy HoffSonnejournalist, videnskab.dk
Publisert
«Vi avskaffer pinsen. Vi avskaffer påsken. Og vi avskaffer julen.»
Slik lød det sjokkerende budskapet levert fra Spejlsalen i det danske Statsministeriet med stemmen til statsminister Mette Frederiksen. I en video der hun gestikulerer rolig med hendene, slik danskene er vant til å se henne på pressekonferanser.
«Mine mareritt om denne regjeringen blir stadig mer uhyggelige. Nå også med Mette F og hennes pressekonferanser», skrev lederen av Dansk Folkeparti, Morten Messerschmidt, i april da han delte videoen. Den er selvsagt falsk.
«Jeg, Kamala Harris, er deres demokratiske presidentkandidat fordi Joe Bidens senilitet endelig kom til syne under debatten», sier en stemme som ligner på Kamala Harris sin i en videosnutt som parodierer hennes kampanjefilm.
«Dette er fantastisk», skrev Tesla-milliardæren Elon Musk da han delte videoen, som også var falsk, med sine nærmere 200 millioner følgere på X – det sosiale mediet han selv eier.
Begge videoene er såkalte «deepfakes» laget med hjelp fra kunstig intelligens.
– Et fundamentalt problem
De viser de en teknologi som stadig blir bedre og mer tilgjengelig og dermed også mer problematisk enn noen gang før. Det påpeker førsteamanuensis Aske Mottelson, som forsker på menneskers interaksjon med digital teknologi ved IT-Universitetet i København (ITU).
– Falske videoer blir snart allemannseie. Selv om kvaliteten på DF-videoen ikke etterlot tvil om at den var falsk, vitner dette om starten på et presserende samfunnsproblem, sier Mottelson til den danske forskningsavisen Videnskab.dk.
— Morten Messerschmidt (@MrMesserschmidt) April 26, 2024
Da den danske politikeren Morten Messerschmidt delte en «deepfake»-video av landets statsminister, forsvarte han det med at det var satire.
– Videoen med Harris er mer på kanten, fordi den er velprodusert og tydeligvis klippet og redigert. Musk forsvarte det med at det var satire. Men det synes jeg ikke at man kunne se med en gang. Det krevde litt kildekritikk, sier lektoren.
Når Aske Mottelson scroller gjennom feeden sin på X – tidligere Twitter – støter han på flere og flere videoer som han er i tvil om er sanne eller falske.
– Det er jo nettopp det som er interessant. Dette handler ikke bare om feilinformasjon og desinformasjon. Det skaper en generell skepsis mot informasjon, selv når den er sann. Det er et fundamentalt problem, sier han.
Også Elon Musk fikk seg en god latter av denne «deepfake»-videoen av Kamala Harris, som ifølge Tesla-milliardæren var ment som satire.
«Deepfake» i biologitimene
Hvordan lager du en «deepfake»?
Du har kanskje hørt om hvordan språkmodeller som ChatGPT lager meningsfulle setninger av enorme mengder data ved å gjette hvilket ord som statistisk sett og mest sannsynlig kommer i den neste setningen? Så hvis du skriver «du grønne, glitrende tre», vil en god språkmodell fullføre setningen med «god dag».
Det er grunnleggende det samme som skjer når en KI lager en «deepfake». Men i stedet for ord, arbeider den med piksler. Så KI-en gjetter, basert på enorme mengder data, hvilken farge hver enkelt piksel i et bilde skal ha.
(Kilde: Aske Mottelson)
I et forskningsprosjekt som startet i fjor, prøver Aske Mottelson å grave dypere i problemet: Utfordrer «deepfake»-videoer tilliten til informasjon? Og er vi i stand til å skille de kunstige videoene fra de ekte?
For å undersøke dette, gjorde Mottelson en rekke eksperimenter som han venter på å få publisert i et tidsskrift. Etter planen skal det skje neste vår.
Til forskningen leide han og kollegaene inn en ukjent skuespiller til å gi en forelesning om biologi som de filmet. Med utgangspunkt i filmen lagde forskerne en «deepfake»-video av samme forelesning, som de viste til testpersoner.
Annonse
– Vi fortalte dem selvfølgelig ikke at det hadde noe med falske videoer å gjøre, for det ville ødelagt studiet og avslørt vår hensikt, forteller Mottelson.
Forskerne gjennomførte tre eksperimenter, alle på internett:
I det første forsøket, med 333 deltakere, fant forskerne ut at folk faktisk lærte like mye av den falske biologiforelesningen som av den som ble gitt av et menneske av kjøtt og blod. Det tyder på at det også finnes en positiv måte å bruke «deepfakes» på, mener Mottelson. – Hvis teknologien kan brukes til å lese opp fra en bok eller holde en nettbasert presentasjon som oppleves troverdig, uten at noen sier «øh» eller noe feil, så ligger det et klart potensial der, sier han.
I det andre forsøket, med 400 personer, konkluderte forskerne med at deltakerne hadde mindre tillit til informasjonen når feil i videoen tydelig viste at den var falsk. De hadde altså en innebygd skepsis til informasjon fra falske videoer når de kunne avsløre dem.
I det tredje forsøket undersøkte de om de 365 deltakerne var i stand til å skille den falske videoen fra den ekte, og omvendt. Halvparten trodde den ekte videoen var ekte. Den andre halvparten var usikre eller trodde den var falsk. 25 prosent trodde at den falske videoen var ekte, mens de øvrige 75 prosentene var i tvil eller mente den var falsk. – Så til en viss grad kan de jo se forskjell. Men det er iøynefallende at det er veldig mange som er i tvil, også når det kommer til den ekte videoen, sier Mottelson.
– Og det er jo poenget mitt i et nøtteskall.« Deepfakes» utvanner vårt forhold til hva som er sant og falskt. Selv når det faktisk er sant, sier lektoren.
Ansiktet er som et fingeravtrykk
Det er ikke bare Aske Mottelson som de siste årene har blitt interessert i «deepfakes».
I 2022 åpnet Aarhus Universitet forskningssenteret Centre for Aesthetics of AI Images (AIIM). Senteret undersøker hvordan KI-skapte bilder påvirker oss sosialt og kulturelt og former vårt syn på estetikk og sannhet.
En av forskerne der er Mette-Marie Zacher Sørensen, som ser på fenomenet fra en annen vinkel enn de fleste.
I kunsthistorien har vi alltid vært interessert i mottakerens syn på et verk eller kunstneren bak verket, påpeker hun:
– Jeg er interessert i den portretterte. I en verden hvor ansiktene våre er overalt og kan brukes til alt, undersøker jeg hva det vil si å bli portrettert i en «deepfake»-video, sier Sørensen, som er lektor ved Aarhus Universitet.
Annonse
– For ansiktet vårt er et slags fingeravtrykk, sier hun.
– Så snart et bilde er delt på sosiale medier, har vi i prinsippet mistet kontrollen over det.
Porno og politikk
Du har kanskje vært borti «deepfakes» av kjente personer som Tom Cruise eller Barack Obama, men dette er bare toppen av isfjellet, påpeker Sørensen.
I 2019 ga firmaet DeepTrace, som utvikler verktøy for å oppdage falske videoer, ut en rapport med et oppsiktsvekkende funn: Hele 96 prosent av alle «deepfake»-videoer på nettet inneholdt pornografisk innhold, laget med både kjente og ukjente personer.
– Jeg er interessert i forskjellen mellom de to sjangrene, pornografiske «deepfakes» og politiske, sier Sørensen.
Hun har undersøkt dette og ser at en grunnleggende forskjell er at politikere har en makt og en plattform til å si ifra på når de blir misbrukt i «deepfakes». De har altså muligheten til å korrigere den falske virkeligheten.
I 2021 gikk en rekke «deepfake»-videoer med Tom Cruise viralt på nettet. (Video: VFXChris Ume)
For folk som er misbrukt i «deepfake»-pornografi, i 99 prosent av tilfellene kvinner, er det ikke like lett å ta til motmæle.
– De kan godt si at «det har jeg aldri gjort». Men så snart det er opplevd og sett som en film som inneholder noen veldig kroppslige bevegelser, er det ikke så relevant om det er sant eller falskt. Det er uansett en krenkelse, sier Sørensen.
Dette leder til enda et poeng fra samme forskning: «Deepfake»-pornografi åpner opp for at seksuelle fantasier kan ta en ekstrem, virkelig form og ikke minst deles med andre på en helt ny måte:
– Alle kan ha en fantasi om noe eller noen. At man kan produsere sin fantasi som en video, med en teknologi som bare blir bedre, har noen helt nye og usette konsekvenser.
Annonse
– Jeg frykter at dette blir hverdagsbruk blant unge mennesker, sier lektoren.
Hun legger til at det er ulovlig å dele slike videoer. Hun mener at det også bør gjøres ulovlig å produsere dem.
Brukte KI til å lage falske barn
Et annet sted på Aarhus Universitets forskningssenter for KI-bilder finner vi Maja Bak Herrie.
– Jeg ser på det med dyp bekymring, men også stor nysgjerrighet, sier Herrie om den viltvoksende «deepfake»-teknologien. Hun er postdoktor og forsker på bildekultur.
De siste to årene er det spesielt to saker som har fanget oppmerksomheten hennes:
Våren 2023 lanserte den danske organisasjonen Børns Vilkår en stor kampanje om vold mot barn. Børns Vilkår fant det uetisk å bruke barnemodeller til kampanjen, og derfor tok de i bruk KI-skapte bilder av barn.
«Hvorfor var det ingen som fikk øye på Aya?», står det over et bilde av en jente med triste øyne. Men jenta på bildet var ikke så virkelig som hun så ut til.
Psykiatrifonden brukte tidligere i år kunstige bilder av barn til å illustrere forsiden på en rapport om psykisk sykdom. Også Amnesty hoppet på KI-vognen i 2023 med bilder av KI-skapte demonstranter.
Herrie mener at slike bilder alltid bør være merket, men er ellers verken for eller imot tendensen.
Hun er mer interessert i hva det gjør med vår visuelle kultur.
En smeltedigel av forvirring
– Historisk sett har vi hatt noen særlige forventninger til fotografi og film som en objektiv gjengivelse av virkeligheten, for eksempel når det gjelder pressefotografiet fra krigssonen.
Annonse
– En tese kunne jo være at det bidrar til at vi med tiden tror mindre på fotografiet og at det utfordrer den dokumentariske rollen som fotografiet og filmen har hatt i samfunnet vårt, sier Herrie.
Det er Aske Mottelson enig i:
– Det etterlater oss i en smeltedigel av forvirring, sier han og forteller hvordan han allerede opplever det selv.
– Her en kveld satt jeg og scrollet på X og kom over en video med Trump som sa noe vanvittig. Han kunne sikkert ha sagt det, men for meg var det 50/50 om den var sann eller falsk. Jeg kunne enkelt og greit ikke se det.
– Fant du ut av det?
– Det gjorde jeg faktisk aldri, sier Mottelson og ler.
– Jeg scrollet bare videre.
Denne artikkelen er del av et dansk formidlingsinitiativ kalt VidenSkaber, fra Videnskabernes Selskab. Prosjektet skal bringe forskning ut i hverdagen og hverdagen inn i forskningen. Det foregår gjennom workshops, debatter, videoer og podcaster, i tillegg til artikler på Videnskab.dk. VidenSkaber er støttet av Carlsbergfondet, Novo Nordisk Fonden og Lundbeckfonden. Videnskab.dk har hatt redaksjonell frihet med tanke på innholdet.