Annonse
Tre AI-genererte mammuter buldrer gjennom et snølandskap. OpenAIs nye tekst-til-video-verktøy, Sora, skaper glede og frykt over hele verden.
Tre AI-genererte mammuter buldrer gjennom et snølandskap. OpenAIs nye tekst-til-video-verktøy, Sora, skaper glede og frykt over hele verden.

Hva kan nye, ultrarealistiske AI-videoer fra Sora gjøre med verden?

Det nye AI-verktøyet Sora kan gjøre tekst om til naturtro videoer. Tre forskere gir sitt syn på hvilke trusler og muligheter teknologien har.

Publisert

Hunder som leker i snøen. En ettertenksom, eldre mann. Eller et vakkert kystlandskap, hvor bølgene slår inn mot steiner som ikke eksisterer i virkeligheten.

Medier verden over videreformidler for tida en rekke naturtro videoer laget med kunstig intelligens (AI) av teknologiselskapet OpenAI.

Selskapet står allerede bak chat-roboten Chat-GPT og bildeverktøyet DALL-E, og nå kommer snart neste AI-verktøy: Teknologien Sora skal gjøre det mulig å gjøre tekst om til videoer på et blunk.

Hvis du skriver – eller prompter, som det heter – at du vil ha en video av to golden retrievere som lager en podcast på et fjell, som i eksempelet nedenfor, vil du få det, laget av kunstig intelligens. Uten at du trenger å dra med deg hunder, podcastutstyr eller videokamera til toppen av et fjell.

OpenAIs direktør, Sam Altman, delte på mediet X den KI-skapte videoen med to golden retrievere som lager en podcast.
OpenAIs direktør, Sam Altman, delte på mediet X den KI-skapte videoen med to golden retrievere som lager en podcast.

Teknologien vekker både beundring og bekymring. Forskerne er ikke i tvil om at denne typen videoverktøy vil forandre verden. Men hvordan?

Den danske nettavisen Videnskab.dk har bedt tre forskere om å gjøre oss klokere på den nye teknologien.

Slutt på den naive troen på videoer

Johan Farkas, postdoktor ved Institut for Kommunikation ved Københavns Universitet. Han forsker på møtet mellom digitale medier, journalistikk, desinformasjon og demokrati:

De siste årene har det ifølge Johan Farkas vært stor bekymring for hvordan nye typer videoverktøy kan føre til desinformasjon. Det vil si bevisst villedende informasjon som har som mål å tiltrekke seg og overbevise mange mottakere.

– Bekymringen har handlet mest om «deepfakes», der kunstig intelligens brukes til å lage falske videoer, hvor for eksempel Mette Frederiksen (Danmarks statsminister, red.anm.) sier noe hun aldri har sagt eller hvor en president erklærer krig mot et annet land, sier Farkas.

Spørsmålet er om Sora vil bli et verktøy for å lage falske nyheter?

– OpenAI, som utvikler Sora, sier de vil sørge for at verktøyet ikke brukes til å lage falske videoer med spesifikke, ekte mennesker. Så jeg tror ikke vi står overfor en situasjon der internett vil bli oversvømmet av «deepfake»-videoer med det første, sier Farkas.

I stedet spår han at den nye teknologien vil gjøre at vi blir langt mer skeptiske til bilder og videoer. Der vi til nå har hatt en litt naiv tro på at bilder og videoer viser oss sannheten – som i ordtaket om at «et bilde lyver aldri» – vil vi i fremtiden bli mye mer mistenksomme.

– Hvis du eller jeg filmer noe som skjer på gaten og deler det på sosiale medier, forventer jeg at vi i fremtiden vil se at brukere i kommentarfeltet stiller spørsmål ved om det i det hele tatt skjedde. Vi vil legge større vekt på avsenderen av bilder og videoer.

Hvis vi stoler på store, etablerte medier og de har laget en video, så stoler vi på innholdet i den, påpeker Farkas. 

– Men vi vil ikke lenger automatisk stole på videoer fra avsendere vi ikke kjenner.

Han mener at Danmark står sterkt i møte med de nye teknologiene.

– Vi har allerede klart oss godt med tanke på desinformasjon, fordi vi har høy grad av tillit til myndighetene og media, sammenlignet med andre demokratiske land. Der de nye teknologiene kan bli en virkelig farlig cocktail, er i land med svært lav grad av tillit til media og myndigheter og høy grad av polarisering, sier Farkas og legger til:

– Men utviklingen nødvendiggjør også i Danmark at vi har en større debatt om hvordan vi kan regulere teknologigigantene, slik at de ikke får mye makt over den demokratiske samtalen.

Enten regulering eller kaos

Ole Winther, professor i maskinlæring ved Københavns Universitet (KU) og Danmarks Tekniske Universitet (DTU). Han forsker på kunstig intelligens:

Regulering eller kaos. Det er de to scenariene Ole Winther ser for seg etter å ha sett hva Sora er i stand til å produsere. Han kaller de nye videoene «sinnssykt imponerende».

– Spørsmålet er om vi kommer til å se en regulering av teknologien eller om kaoset vil råde, sier han.

– Med Sora ser vi det første glimtet av fremtiden, hvor det nesten ikke er grenser for hva du kan produsere og dele. Vi er ikke helt der ennå. Men vi har blitt vist en vei mot en virkelighet uten grenser, og det er ingen tvil om at det er her vi ender opp hvis vi ikke gjør noe.

Winther kaller det «et tapt løp» å kunne skjelne om en video er falsk eller ikke, bare ved å se på den eller bruke en maskinlæringsalgoritme for å vurdere den. Derfor må vi tenke nytt om hele måten vi deler innhold på, sier han.

Diskusjonen om tillit er allerede i gang, og ett forslag er at videoer og bilder i fremtiden skal ha digitale vannmerker. Et slags stempel som kan avsløre om de er ekte.

Men Winther spår at det blir for enkelt å forfalske et vannmerke. Han mener vi bør velge en annen vei.

– Reguleringen bør i stedet rette seg mot plattformene som deler video- og bildemateriale og de kravene som de stiller til sine brukere, sier han.

– Det må stilles krav om at man skal kunne forklare hvor bilder og videoer kommer fra hvis man skal få laste dem opp til for eksempel Facebook. Det vil det ikke være særlig vanskelig teknologisk å innføre.

Som et eksempel peker Winther på blokkjedeteknologien som ligger bak en kryptovaluta som Bitcoin. Teknologien sikrer at innhold alltid kan spores tilbake til den opprinnelige avsenderen. Noe som vil bli viktig etter hvert som AI-video blir mer utbredt.

– 2023 var året for AI-bilder. Nå tyder mye på at 2024 vil bli dominert av AI-videoer, sier han.

Disney-estetikk

Lotte Philipsen, leder for Center for Aesthetics of AI Images (AAIM) ved Aarhus Universitet. Hun forsker blant annet på virkningen av kunstig intelligens på vår estetiske sans:

Sora kommer også til å prege den visuelle kulturen som et verktøy som er med på å popularisere «en penhets-estetikk», mener Lotte Philipsen.

– Jeg frykter en ensretting i vår måte å forstå verden på, fordi det skjer en ensretting i bildeestetikken vår med verktøy som Sora.

Philipsen kaller de nye AI-videoene eksempler på «Hallmark- eller Disney-estetikk», der alle bilder er knivskarpe og alle smiler og har hvite tenner og store øyne.

– Jeg savner mer Grimms eventyr, at du antyder noen brister ved karakterene.

Spesielt fordi Sora gir inntrykk av å representere virkeligheten. Philipsen har lest at målet til Sora er å lage simuleringer av «den virkelige verden». Nettopp den formuleringen har falt henne tungt for brystet.

– Det er rett og slett ikke greit, sier hun om formuleringen, som står på OpenAIs nettside, selskapet bak det nye videoverktøyet.

– Det er et eksempel på at man ikke skiller mellom den virkelige verden og bilder. Man har altså glemt å forholde deg til det fotografiske bildet som et språk – det er ikke den virkelige verden.

– Og det er spesielt problematisk når man simulerer en bestemt type bilder som er veldig pene og polerte.

Philipsen har imidlertid også positive ting å si om Sora. Hun spår at flere kunstnere vil bruke det som verktøy, at andre igjen vil lage kunst som kommenterer det og at de nye AI-videoene vil starte en debatt innenfor kunsthistoriefaget.

En debatt som vil handle om hva bilder er og hva de inneholder.

– Vi er i gang med å skape en visuell verden der du kan beskrive alt ved hjelp av tekst. Det synes jeg er å redusere det visuelle, sier hun.

– Derfor er Sora også en kjærkommen anledning til å advare om at bilder er noe annet enn tekst. At de inneholder mye annet som en datamodell ikke kan fange opp: estetikk, smak og bilders historiske og sosiale kontekster, sier Philipsen.

© Videnskab.dk. Oversatt av Trine Andreassen for forskning.no. Les originalartikkelen på videnskab.dk her.

Få med deg ny forskning

Powered by Labrador CMS