I 2020 ble flere stortingsrepresentanters eposter utsatt for hackingforsøk. PST mener russiske militær-hackere sto bak angrepet.(Foto: Terje Pedersen / NTB)
Forskere skal undersøke om årets stortingsvalg ble forsøkt påvirket av fremmede makter
Forsvarets forskningsinstitutt (FFI) skal forsøke å kartlegge om valget ble utsatt for forsøk på påvirkning av informasjon fra utenlandske aktører.
Forsøkte utenlandske aktører å påvirke det norske stortingsvalget?
Det forsøker nå forskere ved Forsvarets forskningsinstitutt å finne ut, i samarbeid med analyseselskapet Analyse & Tall.
De undersøker nå om Norge ble utsatt for politisk propaganda, desinformasjon eller annen informasjonspåvirkning fra fremmede makter før og under valget.
Både sosiale medier, blogger, nettsider, redaksjonelle medier og alternative medier skal analyseres.
Påvirkning uten at vi er klar over det
Påvirkning er ikke ulovlig i seg selv, og ytringsfriheten er en bærebjelke i et demokratisk samfunn, understreker fagdirektør Eskil Grendahl Sivertsen i FFI til forskning.no.
– Vi skal, og må, ha en åpen og kritisk offentlig debatt om viktige samfunnsspørsmål, sier han.
Problemet er når denne debatten og vår egen virkelighetsoppfatning påvirkes av andre aktører uten at vi er klar over det, mener han.
Det kan være både statlige og ikke-statlige aktører som står bak slike kampanjer.
PST: Russland og Kina kan ha interesse
Fremmedstatlige påvirkningsoperasjoner utgjør en trussel mot Norge, ifølge trusselvurderingen til Etterretningstjenesten,Politiets sikkerhetstjeneste (PST) og Nasjonal sikkerhetsmyndighet (NSM).
PST og E-tjenestenpeker spesielt på Russland og Kina som to land som kan ha interesse av å påvirke Norge.
– Vi vet fra forskning, rapporter og erfaringer fra andre land at Russland, men også Kina, bruker sofistikerte metoder og virkemidler som er krevende å spore og avdekke, sier Sivertsen.
Å undersøke dette er derfor en kompleks oppgave.
Analyser av nettverk og stordata
FFIs team bruker blant annet kvantitative stordataanalyser, nettverksanalyser og kvalitative undersøkelser. Analyse & Tall bidrar med dette, sammen med sin partner Common Consultancy.
De ser ikke bare etter spredning av desinformasjon.
– Det kan blant annet være en blanding av sann eller delvis sann informasjon, påstander, rykter, spekulasjoner eller humor. Og mye annet som heller ikke nødvendigvis kan faktasjekkes, men som er egnet til å skape en effekt, sier Sivertsen.
Annonse
Effekten kan være å svekke tilliten til myndighetene, politikere eller gjennomføringen av valget.
Forvrenge vår oppfattelse av virkeligheten
Det er ikke nødvendigvis slik at noen vil påvirke selve utfallet av selve stortingsvalget.
Mye desinformasjon er knyttet til å forsøk på å påvirke mottakernes virkelighetsoppfatning, forklarer han.
Det kan også være forsøk å manipulere hvilke temaer som trender på sosiale medier.
Aktørene kan velge å forsterke en spesiell sak, for eksempel motstand mot Nato, og få den til å se mye større ut på sosiale medier enn den egentlig er.
En aktør kan også forsøke å diskreditere politikere gjennom rykter, eller lekkasjer av sann eller usann informasjon.
Kompromitterende om politikere
Å skaffe kompromitterende opplysninger for å diskreditere politikere eller undergrave tilliten til politiske prosesser, kan ha vært en hensikt med det russiske etterretnings data-innbrudd på Stortinget i fjor, ifølge Sivertsen.
Det kan også handle om påstander som kan tenkes å undergrave selve tilliten til valgsystemet.
Det kan for eksempel gjøres ved å legge ut falske «bevis» på at valget er tuklet med, eller ved å skape tvil i befolkningen ved å forklare reelle avvik eller utilsiktede hendelser i valggjennomføringen som bevisste forsøk på valgjuks, forklarer han.
– Enda mer effektivt vil det være å skape tvil ved å forklare avvik eller uheldige hendelser, som manglende stemmesedler i noen valglokaler, som et bevisst forsøk på valgjuks, forklarer han.
Annonse
Noen prøver også å påvirke enkeltmennesker
– Mottakerne er mindre mistenksomme til et anrop, bilder eller budskap som de mottar eller tror de mottar fra noen de stoler på, skriver Benjamin James Knox i en epost til forskning.no.
Han forsker på hvilke psykologiske og kognitive mekanismer som gjør at mange tror at falske nyheter er sanne.
Han og hans kolleger ved NTNU Center for Cyber and Information Security (CCIS) på Gjøvik forsker blant annet på falske nyheter på sosiale medier. De har ikke spesifikt sett på valgmanipulasjon .I tillegg til stillingen ved Cybersenteret ved NTNU, jobber Knox også ved Cyberforsvaret.
De kaller det «deep fakes», og det kan komme i form av bilder, falske påstander og svindelforsøk i e-poster, SMS, poster i sosiale medier eller oppringninger.
– Svindelen er så overbevisende fordi avsenderne vanligvis bruker personer eller organisasjoner som representerer en autoritet som vi tror på eller er viktig for oss, skriver Knox.
Aksjoner kan pågå fordekt, over tid
Påvirkningsoperasjoner pågår gjerne fordekt og med lav intensitet over tid. De kan gå under terskelen for hva noen vil gjenkjenne som en krise, og kan ramme samfunnet på tvers av sektorer, ifølge Sivertsen ved FFI.
Derfor er det viktig å forstå og gjenkjenne en påvirkningsoperasjon.
– Det er nødvendig å kunne identifisere og beskytte egne sårbarheter gjennom konkrete tiltak og prioriteringer. Det er nødvendig å gjøre hele samfunnet mer robust i møtet med påvirkningsforsøk, sier Sivertsen.
81 land utsatt for påvirkning i form av politisk propaganda og desinformasjon i 2020, ifølge en rapport fra Oxford Internet Institute. Norge ble ikke nevnt i denne rapporten.
– Har dere sett noen tegn på at valget ble forsøkt, eller ble påvirket, allerede?
Annonse
– Det er for tidlig å si. Nå skal vi først analysere store datasett som går fra 15. september og bakover i tid, sier Sivertsen.
Forsvarets forskningsinstitutt skal levere rapporten i midten av desember.
Han understreker at denne typen innsamling og analyse er omfattet av et strengt personvern og at de ikke skal se på enkeltpersoners aktiviteter i sosiale medier eller på nettet.
Oppdraget er bestilt av Kommunal- og moderniseringsdepartementet.