Det er Facebook som er trusselen

Bildet som tegnes av russisk påvirkning i media er ofte preget av overdrivelser, tvilsomme påstander og ukritisk bruk av kilder.

Frykten for at politisk påvirkning på sosiale medier kan avgjøre valg har vært en del av den norske offentligheten siden Donald Trump ble valgt til president, tilsynelatende ved hjelp av en hærskare av russiske troll og hackere.

Bare i høst har Dagbladet advart om at «De russiske trollene er tilbake» og NRK introduserer et intervju med en tidligere FBI-agent med at «Russiske troll ville brukt populistiske grupper i Norge for å splitte oss».

Også myndighetene her hjemme har løftet frykten for desinformasjon på agendaen. I årets trusselvurdering advarte PST mot at «fremmede stater vil kunne forsøke å påvirke opinionen og det politiske ordskiftet».

Før kommunevalget i høst gikk en rekke norske departementer og andre offentlige institusjoner sammen om «Ti tiltak for hindre uønsket påvirkning i valggjennomføringen».

Problemet med disse fortellingene er at de tufter på en antagelse om at påvirkning på sosiale medier er et effektivt virkemiddel for å sabotere valg.

Det er en antagelse som ikke nødvendigvis stemmer. Videre er bildet som tegnes av russisk påvirkning i media ofte preget av overdrivelser, tvilsomme påstander og ukritisk bruk av kilder.

Konsekvensen er at mye av fokuset rettes mot et marginalt problem, og ikke mot de større utfordringene av at digitale plattformer som at Facebook får stadig mer makt.

Desinformasjon er mindre viktig enn vi tror

Før EU-valget i 2019 publiserte sikkerhetsselskapet SafeGuard Cyber en rapport som hevdet at halvparten av europeere hadde blitt utsatt for russisk påvirkning. Selv om rapporten var et markedsføringsstunt og metodikken høyst tvilsom, ble påstanden gjenfortalt som fakta av seriøse nyhetsmedier som The Guardian og Politico.

Også her hjemme ble historien om omfattende russisk påvirkning av EU-valget gjenfortalt. Analyser utført av Oxfords Computational Propaganda Project i etterkant viste at både mengden påvirkning og effekten på valget var minimal.

Likevel blir fortellingen om at valgpåvirkning er et stort problem gjenfortalt og får fotfeste.

Her hjemme er det også lite som tyder på at Norge har vært et prioritert mål for denne typen aktivitet. I oktober publiserte den amerikanske tenketanken CSIS en rapport som blant annet hevdet at den russiske trollfabrikken Internet Research Agency (IRA) hadde skrevet over 1600 tweets på norsk i et forsøk på å så splid i det norske samfunnet.

Men tallet er en stor overdrivelse da det er langt fra sikkert at alle 1600 var rettet mot Norge. Mot slutten av 2018 slapp Twitter et åpent datasett med tweets fra kontoer som tilhørte nettopp IRA.

Av 131 tweets som var markert som «norske» var kun 7 faktisk skrevet på norsk, og ingen av dem er skremmende lesning.

Det er snakk om gratulasjoner i forbindelse med samefolkets dag og retweeting av politiet i Hedmark som rapporterer «Underkjølt regn og glatte veger på Hedemarken, kjør forsiktig. Alt av tilgjengelige mannskap er ute og strør.»

Det viktigste spørsmålet er likevel hvorvidt valgpåvirkning på sosiale medier i det hele tatt fungerer.

Den klart mest omfattende forskningslitteraturen handler om det amerikanske valget i 2016, hvor russiske påvirkningskampanjer unektelig fant sted.

Selv om det er utbredt enighet om at påvirkningen foregikk er det liten enighet om hvor viktig den var. Forskningen på feltet er delt, de mer skeptiske har argumentert for at det ikke har noen effekt, og ingen har klart å troverdig dokumentere noen effekt av betydning, mye på grunn av manglende data.

Så langt tyder det meste på at selv de mest omfattende påvirkningskampanjene har en ganske begrenset evne til å endre valg.

Fokuset på Russland og valg er feil

Desinformasjon eksisterer, og det er ikke usannsynlig at Norge vil rammes i fremtiden. Å rette et kritisk søkelys på denne typen aktivitet er både betimelig og viktig.

Men når fokuset er på Russland, og desinformasjon som en trussel mot valg går viktige nyanser tapt. Russisk desinformasjon har i liten grad handlet om å endre valg eller spre et bestemt politisk budskap.

Russiske troll har for eksempel stått bak både falske Black Lives Matter-sider på Facebook, i tillegg til sider som promoterte den hvite rases overlegenhet. I tillegg er desinformasjon, russisk eller ikke, bare en liten del av langt større samfunnsendringer.

Et ensrettet fokus på valg og Russland overskygger nemlig større og mer dyptgående utviklinger i moderne digitale samfunn. Shoshana Zuboff skriver i The Age of Surveillance Capitalism (2019) at den større utviklingen digitalisering og sosiale medier bringer med seg er måten enkeltmenneskers adferd gjøres målbar.

Aktiviteten vår på sosiale medier blir loggført som big data, og denne dataen blir følgende brukt til å påvirke oss til handling. Dette er en del av selve grunnlaget for hva Nick Srnicek beskriver som «platform capitalism».

Facebook loggfører hva du gjør, slik at Facebook kan selge skreddersydd reklame tilpasset deg og dine preferanser og handlingsmønstre. Algoritmene bestemmer hva du ser, og hva du vil se.

Sosiale medier åpner ikke bare for manipulasjon fra desinformasjonskampanjer. Elementet av manipulasjon uttrykt som markedsføring er sosiale mediers forretningsmodell. Å fokusere på Russland er å henge seg opp i hvem som (mis)bruker mulighetene dette gir på bekostning av kritikk mot foretningsmodellen selv.

Mangelen på et bredere perspektiv på digitalisering og sosiale mediers makt gjør at vi slår oss til ro med at Facebook løser problemet ved å utestenge russiske kontoer og bots.

Mens Facebook flott proklamerer at dette er viktig i kampen mot desinformasjon glemmer vi å stille spørsmål rundt forretningsmodellen til sosiale medier og makten disse plattformene har i samfunnet.

En makt som er tilnærmet umulig å stadfeste og studere enn så lenge plattformene selv stenger seg fra innsyn og forskning gjennom påskudd om å beskytte personvern.

Jo mer vi snakker om ineffektiv og begrenset russisk desinformasjon jo mindre retter vi søkelyset mot den egentlige utfordringen.