– Sosiale medier er blitt et våpen

Påvirkningsforsøk i sosiale medier har gått fra å være en mulighet til en dagligdags hendelse, hevder forsker Arild Bergh.

Unge mennesker med smarttelefoner på konsert
Sosiale medier gjør det mulig å få et budskap bokstavelig talt rett ned i lomma hos millioner av mennesker.

– Sosiale medier gir direkte tilgang til brukere over hele verden. Denne infrastrukturen kan misbrukes. Sosiale medier er på mange måter blitt et våpen, sier forsker Arild Bergh, ved Forsvarets forskningsinstitutt.

I vår publiserte FFI rapporten «Påvirkningsoperasjoner i sosiale medier – oversikt og utfordringer» - se under. Her beskriver Bergh hvordan stater bruker sosiale medier for å prøve å påvirke befolkningen i andre land. Rapporten tar for seg teknologien og mekanismene som gjør det mulig å gjennomføre slike operasjoner.

Desinformasjon om koronapandemien

I følge Bergh kan en påvirkningsoperasjon i sosiale medier defineres som koordinerte forsøk på å endre meninger og virkelighetsoppfatninger hos mennesker og grupper uten å tilkjennegi hvem som står bak.

– En påvirkningsaksjon forsøker ofte å forsterke allerede eksisterende motsetninger og konflikter i samfunnet, eller den sprer feilinformasjon. Slik feilinformasjon kan føre til at større eller mindre grupper foretar valg de ikke er tjent med, for eksempel ignorerer myndighetenes råd om smittevern i forbindelse med Covid-19-pandemien. 

Bergh mener det vi har sett under koronapandemien er ett av de ferskeste eksemplene på påvirkningsforsøk.

Allerede tidlig i koronapandemien dukket det opp desinformasjon og konspirasjonsteorier om viruset. For eksempel at viruset ikke finnes, at utbruddet er knyttet til 5G-utbygging eller at det allerede finnes en kur som holdes tilbake av myndighetene. I følge en rapport fra EUs European External Action Service (EEAS) var deler av denne desinformasjonen plantet og spredt av russiske kilder for å forsterke konflikter og svekke befolkningens tiltro til myndighetenes håndtering av viruset i europeiske land.

Innblandingen i valget i USA i 2016 er et annet eksempel.

I følge NATO Stratcom Centre i Riga gjøres det stadige russiske forsøk på å svekke oppslutningen og tilliten til Nato i baltiske land gjennom å produsere og spre innhold i sosiale medier.

Et økosystem

Rapporten beskriver et helt økosystem av aktører som bevisst og ubevisst kan støtte opp om påvirkningsoperasjoner. 

– Mekanismene i sosiale medier sørger for at desinformasjon – altså bevisst villedende informasjon – gjentas, støttes, deles og spres av vanlige brukere. Disse vet gjerne ikke selv at de sprer desinformasjon. En vellykket påvirkningsoperasjon kan leve sitt eget liv ved at brukere begynner å lage eget innhold som støtter opp under den historien de som står bak operasjonen ønsker å spre for å villede. De som står bak kan bare lene seg tilbake og observere kaoset og forvirringen de har skapt, sier Bergh.

Det er mange sosiale og økonomiske mekanismer og motiver som kan forsterke en påvirkningsoperasjon. 

Algoritmer

Innenfor IT er algoritmer en serie med handlinger som løser en oppgave. For eksempel kan man lage algoritmer for å sortere personnavn som legges inn i en liste alfabetisk.

Innenfor sosiale medier er det utviklet algoritmer for å få mest mulig oppmerksomhet fra brukerne. Data brukerne legger igjen, for eksempel hva de leser, liker og kommenterer, brukes til å bestemme hva slags reklame og innlegg som vises til hver enkelt bruker. Liker du katter, får du se flere kattebilder.

Å lage disse algoritmene løses i hovedsak med maskinlæring. Dette er programvare som, etter å ha blitt trent opp, automatisk analyserer data for å finne mønstre. Ved hjelp av maskinlæring kan man for eksempel «trene» en datamaskin til å kjenne igjen katter på bilder. 

En viktig forskjell mellom maskinlæring og enklere programvare er at maskinlæring endrer sin prosessering basert på informasjonen som analyseres. Forenklet kan man si at en sorteringsalgoritme aldri kan lures til å tro at B kommer før A, men maskinlæring kan påvirkes ved å mate den med store datamengder som fordreier læringen.

Aktører bak en påvirkningsoperasjon manipulerer andres algoritmer. En kan derfor si at aktørene benytter algoritmisk krigføring for å manipulere sosiale medieplattformer
til å distribuere sitt innhold.

– Nettsteder som sprer engasjerende, men falske nyheter har et økonomisk motiv fordi det gir dem annonseinntekter. Det kan være penger å tjene på å gi liksom-vitenskapelige svar og spre desinformasjon fordi du har et produkt eller en tjeneste å selge. Hvorfor så mange konspirasjonsteorier brer om seg blant folk er et lengre lerret å bleke. Fenomenet vil nok studeres av psykologer i lang tid fremover, mener Bergh.

– Hovedproblemet er at sosiale mediers algoritmer samler poster fra utallige brukere, uansett bakgrunn, og presenterer det uten kontekst i en overbevisende strøm av informasjon. 

Vi må være forberedt på å leve med påvirkningsoperasjoner, og øke vår motstandsdyktighet mot dem.

Ekkokammer og kaninhull

Bergh mener det er utfordrende å forhindre eller stoppe påvirkningsforsøk.

– Det er vanskelig fordi innholdet og fortellingene som plantes blandes med innhold og ytringer fra ekte, lokale brukere. Disse ytringene er beskyttet av ytringsfriheten. Det er dessuten kostbart og tidkrevende å ha reell kontroll med brukergenerert innhold på sosiale medier. Slik kontroll strider mot selve forretningsmodellen til sosiale medie-selskaper, sier Bergh.

– Dessuten er det ofte uklart hvem, om noen, som står bak i mylderet av meninger og innhold. Vi må være forberedt på å leve med muligheten for slike operasjoner, og derfor øke vår motstandsdyktighet mot påvirkningsoperasjoner, sier Bergh.

Mer øving og bevisstgjøring

FFI har nå startet et eget forskningsprogram for å øke samfunnets motstandsdyktighet mot påvirkningsoperasjoner. Prosjektet er blant annet finansiert av Forsvarsdepartementet og Justisdepartementet.

Målet på lang sikt er å

  • Forstå helheten og omfanget av trusselen påvirkningsaksjoner utgjør
  • Identifisere hvordan det kan skade sentrale samfunnsområder
  • Finne mulige mottiltak mot påvirkning 

Noe fasitsvar på hvordan vi kan øke motstandsdyktighet har forskerne naturlig nok ikke ennå. Men å øke bevisstheten blant folk som jobber med slike problemstillinger ved å øve på å håndtere dem er viktig.

Prosjekt vil blant annet undersøke hvor fort en bruker isoleres fra informasjon som ikke passer inn i deres verdensbilde. 

– Alle vet at det skjer – selvseleksjon og ekkokammereffekten. Bare gå inn på YouTube og søk på «flat earth», klikk på en av videoene som støtter opp under påstanden om at jorda er flat, og så ser du hvilke videoer YouTubes algoritmer foreslår at du skal se som neste video. Disse algoritmene endres jo hele tiden. Men til nå er det er ingen som systematisk og grundig har kartlagt hvor raskt dette skjer med ulike brukere og ved ulik adferd. 

– Hvorfor er dette, altså graden av isolasjon fra info du ikke liker og hastigheten det skjer i, interessant?

– Fordi vi har sett at en 18-åring kan gå fra å være en «vanlig» gutt til ekstremist som dreper og angriper moskeer på ett år. Det er viktig å forstå mekanismene som bidrar til at slikt kan skje. Disse mekanismene kan utnyttes i påvirkningsoperasjoner, sier Bergh.

Relevant forskning