Denne artikkelen er produsert og finansiert av Forsvarets forskningsinstitutt - les mer.

Sosiale medier gjør det mulig å få et budskap bokstavelig talt rett ned i lomma hos millioner av mennesker.
Sosiale medier gjør det mulig å få et budskap bokstavelig talt rett ned i lomma hos millioner av mennesker.

– Sosiale medier er blitt et våpen

Forsøk på å påvirke folks meninger og oppfatninger ved hjelp av sosiale medier har gått fra å være en mulighet til en dagligdags hendelse, hevder forsker Arild Bergh.

– Sosiale medier gir direkte tilgang til brukere over hele verden. Denne infrastrukturen kan misbrukes. Sosiale medier er på mange måter blitt et våpen, sier forsker Arild Bergh ved Forsvarets forskningsinstitutt (FFI).

I vår publiserte FFI rapporten Påvirkningsoperasjoner i sosiale medier – oversikt og utfordringer. Her beskriver Bergh hvordan stater bruker sosiale medier for å prøve å påvirke befolkningen i andre land.

Rapporten tar for seg teknologien og mekanismene som gjør det mulig å gjennomføre slike operasjoner.

Desinformasjon om koronapandemien

Ifølge Bergh kan en påvirkningsoperasjon i sosiale medier defineres som koordinerte forsøk på å endre meninger og oppfatninger av virkeligheten hos mennesker og grupper uten å tilkjennegi hvem som står bak.

– En påvirkningsaksjon forsøker ofte å forsterke allerede eksisterende motsetninger og konflikter i samfunnet, eller den sprer feilinformasjon for å skape usikkerhet og forvirring, sier han.

Forskeren forteller at slik feilinformasjon kan føre til at større eller mindre grupper foretar valg de ikke er tjent med, som for eksempel å ignorere myndighetenes råd om smittevern i forbindelse med covid-19 pandemien.

Bergh mener det vi har sett under koronapandemien er ett av de ferskeste eksemplene på påvirkningsforsøk.

– Mekanismene i sosiale medier sørger for at bevisst villedende informasjon – gjentas, støttes, deles og spres av vanlige brukere, sier Arild Bergh ved Forsvarets forskningsinstitutt.
– Mekanismene i sosiale medier sørger for at bevisst villedende informasjon – gjentas, støttes, deles og spres av vanlige brukere, sier Arild Bergh ved Forsvarets forskningsinstitutt.

Allerede tidlig i koronapandemien dukket det opp desinformasjon og konspirasjonsteorier om viruset – for eksempel at viruset ikke finnes, at utbruddet er knyttet til 5G-utbygging eller at det allerede finnes en kur som holdes tilbake av myndighetene.

Ifølge en rapport fra EUs European External Action Service (EEAS) var deler av denne desinformasjonen plantet og spredt av russiske kilder for å forsterke konflikter og svekke befolkningens tiltro til myndighetenes håndtering av viruset i europeiske land.

Påvirkningsoperasjonen lever sitt eget liv

Rapporten beskriver et helt økosystem av aktører som bevisst og ubevisst kan støtte opp om påvirkningsoperasjoner.

– Mekanismene i sosiale medier sørger for at desinformasjon – altså bevisst villedende informasjon – gjentas, støttes, deles og spres av vanlige brukere. Disse vet gjerne ikke selv at de sprer desinformasjon.

Bergh forklarer at en vellykket påvirkningsoperasjon kan leve sitt eget liv ved at brukere begynner å lage eget innhold som støtter opp under den historien de som står bak operasjonen ønsker å spre for å villede.

– De som står bak, kan bare lene seg tilbake og observere kaoset og forvirringen de har skapt, sier han.

Det er mange sosiale og økonomiske mekanismer og motiver som kan forsterke en påvirkningsoperasjon.

– Nettsteder som sprer engasjerende, men falske nyheter, har et økonomisk motiv fordi det gir dem annonseinntekter. Det kan være penger å tjene på å gi liksom-vitenskapelige svar og spre desinformasjon fordi du har et produkt eller en tjeneste å selge, forteller han.

Hvorfor så mange konspirasjonsteorier brer om seg blant folk er et lengre lerret å bleke. Bergh antar at fenomenet nok vil bli studert av psykologer i lang tid fremover.

– Hovedproblemet er at sosiale mediers algoritmer samler poster fra utallige brukere, uansett bakgrunn og presenterer det uten kontekst i en overbevisende strøm av informasjon.

Ekkokammer og kaninhull

Bergh mener det er utfordrende å forhindre eller stoppe påvirkningsforsøk.

– Det er vanskelig fordi innholdet og fortellingene som plantes blandes med innhold og ytringer fra ekte, lokale brukere. Disse ytringene er beskyttet av ytringsfriheten. Det er dessuten kostbart og tidkrevende å ha reell kontroll med brukergenerert innhold på sosiale medier. Slik kontroll strider mot selve forretningsmodellen til sosiale medieselskaper, sier han.

Bergh forteller videre at det dessuten ofte er uklart hvem, om noen, som står bak i mylderet av meninger og innhold. Han mener vi må være forberedt på å leve med muligheten for slike operasjoner.

Mer øving og bevisstgjøring

FFI har nå startet et eget forskningsprogram for å øke samfunnets motstandsdyktighet mot påvirkningsoperasjoner. Prosjektet er blant annet finansiert av Forsvarsdepartementet og Justisdepartementet.

Målet på lang sikt er å:

  • Forstå helheten og omfanget av trusselen påvirkningsaksjoner utgjør
  • Identifisere hvordan det kan skade sentrale samfunnsområder
  • Finne mulige mottiltak mot påvirkning

Noe fasitsvar på hvordan vi kan øke motstandsdyktighet har forskerne naturlig nok ikke ennå. Men å øke bevisstheten blant folk som jobber med slike problemstillinger ved å øve på å håndtere dem er viktig.

Prosjektet vil blant annet gjennomføre et eksperiment for å kartlegge hvor fort sosiale mediers algoritmer isolerer en bruker fra informasjon som ikke passer inn i hans eller hennes verdensbilde.

– Alle vet at det skjer – selvseleksjon og ekkokammereffekten. Algoritmene skal fungere slik at du får se mer av det du allerede liker. Bare gå inn på YouTube og søk på «flat earth», klikk på en av videoene som støtter opp under påstanden om at jorda er flat, og så ser du hvilke videoer YouTubes algoritmer foreslår at du skal se som neste video. Disse algoritmene endres jo hele tiden. Men til nå er det er ingen som systematisk og grundig har kartlagt hvor raskt dette skjer med ulike brukere og ved ulik adferd.

– Hvorfor er dette, altså graden av isolasjon fra info du ikke liker og hastigheten det skjer i, interessant?

– Fordi vi har sett at en 18-åring kan gå fra å være en vanlig gutt til ekstremist som dreper og angriper moskeer på ett år. Det er viktig å forstå mekanismene som bidrar til at slikt kan skje, sier Arild Berg.

Algoritmer

Innenfor IT er algoritmer en serie med handlinger som løser en oppgave. For eksempel kan man lage algoritmer for å sortere personnavn som legges inn i en liste alfabetisk.

Innenfor sosiale medier er det utviklet algoritmer for å få mest mulig oppmerksomhet fra brukerne. Data brukerne legger igjen, for eksempel hva de leser, liker og kommenterer, brukes til å bestemme hva slags reklame og innlegg som vises til hver enkelt bruker. Liker du katter, får du se flere kattebilder.

Å lage disse algoritmene løses i hovedsak med maskinlæring. Dette er programvare som, etter å ha blitt trent opp, automatisk analyserer data for å finne mønstre. Ved hjelp av maskinlæring kan man for eksempel «trene» en datamaskin til å kjenne igjen katter på bilder.

En viktig forskjell mellom maskinlæring og enklere programvare er at maskinlæring endrer sin prosessering basert på informasjonen som analyseres. Forenklet kan man si at en sorteringsalgoritme aldri kan lures til å tro at B kommer før A, men maskinlæring kan påvirkes ved å mate den med store datamengder som fordreier læringen.

Aktører bak en påvirkningsoperasjon manipulerer andres algoritmer. En kan derfor si at aktørene benytter algoritmisk krigføring for å manipulere sosiale medieplattformer til å distribuere sitt innhold.

Referanser:

Arild Bergh: Påvirkningsoperasjoner i sosiale medier - oversikt og utfordringer, FFI-Rapport, 2020.

EEAS Special Report: Disinformation on the Coronavirus – Short Assessment of the Information Environment, EU vs DisInfo, 2020.

Coronavirus: news on EU action, Team Europe support, disinformation, repatriation and solidarity stories. EUs European External Action Service, 2020.

Powered by Labrador CMS