Annonse
USA-valget i 2020 har vært preget av konspirasjonsteorier. Å chatte med en kunstig intelligens-chatbot endret folks tro på konspirasjoner, ifølge en ny studie.

KI-chatbot lyktes i å endre holdningene til konspirasjons­teoretikere 

En ny studie viser at en dialog med en chatbot minsker folks tiltro til konspirasjonsteorier om for eksempel 9/11, COVID-19 og  USA's presidentvalg i 2020.

Publisert

I en tid med mye feilinformasjon er det lett å ramle nedi konspiratoriske kaninhull.

Men det kan finnes en vei opp og ut, skal vi tro en ny studie publisert i tidsskriftet Science

I studien har forskere fått konspirasjonsteoretikere til å revurdere sine teorier og endre sine tidligere overbevisninger ved hjelp av en chatbot som er basert på generativ kunstig intelligens (KI).

– Vi viser at en relativt kort samtale med en generativ KI-modell (teknologien bak chatbotten, red.) kan føre til en betydelig og varig reduksjon i troen på konspirasjonsteorier. Selv blant mennesker hvis overbevisninger er dypt forankret, skriver forskerne i en pressemelding.

Ved å få forsøkspersonene til å skrive med en chatbot om en konspirasjonsteori, viste studien at deres feilinformerte overbevisninger i gjennomsnitt ble redusert med 20 prosent.

– Det er positive resultater i den forstand at vi kan bruke KI til et godt formål, sier førsteamanuensis Daniel Hershcovich. Han forsker på KI ved Datalogisk Institutt ved Københavns Universitet, men har ikke vært involvert i studien.

Mindre tro på konspirasjonsteoriene

I den nye studien fikk forskere 2.190 amerikanere til å føre en dialog med en chatbot om en konspirasjonsteori de selv trodde på. Deretter skulle de komme med bevis som støttet teorien, og vurdere i hvilken grad de trodde på den.

Basert på deltakernes svar skreddersydde chatboten faktiske argumenter som skulle motbevise forsøkspersonenes falske konspirasjonsteorier.

I løpet av tre runder skulle forsøkspersonen og chatboten veksle på å diskutere. Deretter skulle konspirasjonsteoretikeren vurdere hvor sann teorien var på en skala fra 0 til 100.

Studien er imponerende grundig, og har gitt noen overraskende resultater, mener Daniel Hershcovich.

– Den generelle oppfatningen i forskningen er at det er vanskelig å endre folks holdninger til konspirasjonsteorier de tror på, sier han.

Men studien viser at KI-chatboten klarte å endre synet til noen av forsøkspersonene på deres egen teori. I tillegg påviste forskerne en spillover-effekt: Effekten påvirket deres tro også på andre ting.

De som endte med å tro mindre på sin egen teori, trodde også mindre på andre konspirasjonsteorier innen emner som korona og USAs presidentvalg i 2020.

Grafen til høyre viser at det var en reduksjon i troen hos de som skrev med AI-chatbotten (rød).

To måneder etter eksperimentet viste det seg dessuten at forsøkspersonene fortsatt hadde en redusert tro på konspirasjonsteorien.

For å sikre seg at chatboten ikke ga feilinformasjon til deltakerne fikk forskerne en profesjonell faktasjekker til å evaluere 128 av chatbotens påstander: 99,2 prosent viste seg å være sanne, mens 0,8 prosent var misledende.

KI som verktøy i kampen for sannhet

DebunkBot, chatboten i studien, er basert på GPT-4 Turbo. Kan modeller som denne trenes til oppgaver i den virkelige verden? Resultatene fra studien kan potensielt bli et springbrett til å undersøke det nærmere, mener Daniel Hershcovich

– Det er først i løpet av de to siste årene at vi har sett modellene gjøre en forskjell for mennesker. Det er også derfor studien er overraskende, forteller han.

Derfor viser studien også hvordan generativ KIs evne til å overbevise andre potensielt kan brukes i en positiv sammenheng. Det skriver to forskere i psykologi i tidsskriftet Perspectives.

Basert på studien mener forskere at en kan vurdere å la KI svare på innlegg om konspirasjonsteorier på sosiale medier.

Er det for tidlig å si at KI kan bli et verktøy mot feilinformasjon?

– Teknologien er ikke perfekt, men det er alltid et spørsmål om hva alternativet er. Dersom chatboten ikke har noen mangler, så er det jo en god ting.

 For eksempel viser studien at chatboten aldri økte folks tro på den teorien de trodde på, svarer Daniel Hershcovich.

Fordi studiens chatbot er basert på modellen GPT-4, bør vi likevel være oppmerksom, mener forskeren.

For GPT-4, som er utviklet av den amerikanske virksomheten OpenAI, er notorisk kjent for å være «lukket». Det vil si at vi  ikke vet hvilke data som brukes til å trene modellen.

Vi vet heller ikke om OpenAI kan ha lagt til visse fordommer eller en annen hemmelig mekanisme til GPT-4, som kan påvirke hvordan forsøkspersonene påvirkes.

Det er faktisk alarmerende, sier Daniel Hershcovich:

– På en måte har de full kontroll over modellen, og hvis OpenAI av en eller annen grunn bestemmer seg for å overbevise folk om å være for eller imot visse holdninger, så kan de gjøre det.

Fallgruvene ved KI

Selv om den kunstige intelligensen i denne studien har vist seg å kunne bekjempe feilinformasjon, har forskere også advart om at generativ KI, som chatboter, kan brukes til å spre falsk informasjon.

OpenAI har selv rapportert om russiske og israelske grupper som har brukt OpenAIs verktøy til å spre feilinformasjon - altså bevisst falsk informasjon.

Det er en risiko for at andre kan misbruke en chatbot som denne til andre formål, påpeker Daniel Hershcovich.

– Jeg vet ikke om vi kan forhindre det. Men vi kan gjøre mer forskning der vi informerer beslutningstakere om risikoen for at dette vil skje, sier han. 

Videre argumenterer Hershcovich for at selskaper som OpenAI bør være mer transparente om sine modeller.

Dersom KI skal brukes som et verktøy mot feilinformasjon er det nødvendig å bygge videre på studiens resultater.

For eksempel inkluderer studien mer kjente konspirasjonsteorier om korona og aliens. 

Samtidig bør vi også teste på mindre utbredte konspirasjonsteorier, der det finnes mindre bevis på nettet, mener datalogen fra Københavns Universitet:

– Det er virkelig avgjørende for at vi skal kunne være sikre på denne teknologien, før vi fortsetter å bruke den.

Ønsker du å teste chatboten selv, kan du prøve en versjon her. 

I grafikken nedenfor kan du også se et utdrag av en dialog mellom en forsøksperson og studiens chatbot. Utdraget handler om konspirasjonsteorien som hevder at terrorangrepet 11. september 2001 var iscenesatt.

Deltakerne i forsøket (markert med gult) skulle komme med en konspirasjonsteori, som chatboten (i lilla) skulle forsøke å argumentere mot.

Referanser:

«Durably reducing conspiracy beliefs through dialogues with AI», Science (2024) DOI: 10.1126/science.adq1814

«Generative AI as a tool for truth», Science (2024). DOI: 10.1126/science.ads0433

© Videnskab.dk. Oversatt av Julianne Paulsen, for forskning.no. Les den danske originalsaken på Videnskab.dk, her

Opptatt av teknologi?

Følg den nyeste utviklingen innen kunstig intelligens, energi, sosiale medier og roboter med nyhetsbrev fra forskning.no.

Meld meg på

.

Powered by Labrador CMS