– Jeg er kanskje en skurk i dag, men jeg tror at det jeg gjorde bidrar til at landet vårt og demokratiet vårt blir bedre.
Det sa Steve Kramer til nyhetsbyrået AP etter at han ved hjelp av kunstig intelligens sørget for at «Joe Biden» ringte 20.000 velgere og oppfordret dem til å ikke stemme ved primærvalget i januar.
På tampen av fjoråret fikk også Moldovas president Maia Sandu erfare hvor bisarr et deepfake-angrep kan bli. Plutselig dukket det opp en video på Facebook hvor Sandu forbød nype-plukking av hensyn til miljøet.
Det viste seg å være nok en russisk deepfake med mål om å ramme Sandus popularitet. Nyper er nemlig hovedingrediensen til en populær juledrikk i Moldova. Dette er ikke første gang Sandu er offer for russisk desinformasjon, skriver Politico.
Selv om deepfakes ofte blir avslørt, er mange bekymret for at KI undergraver demokratiet.
– Det er ingen tvil om at kunstig intelligens allerede brukes til å spre løgn og desinformasjon i stor skala, sa statsminister Jonas Gahr Støre til NTB nylig.
Regjeringen jobber nå med en strategi for å styrke befolkningens motstandskraft mot desinformasjon, som skal lanseres i våren 2025.
Men er det også grunn til uro, når politikere benytter åpenbart KI-generert innhold i sine kampanjer?
Les også: Det er fort gjort å ramle inn i et ekkokammer
Gjør kandidaten sympatisk
Nå er det ikke bare deepfakes vi må skjerme oss mot lenger.
I tidsskriftet Nature skriver den amerikanske dataforskeren Rumman Chowdhury at vi alle vet at man ikke kan stole på hva man leser på internettet.
– Nå må vi utvikle refleksene for ikke bare å oppdage falske medier, men også for å unngå den følelsesmessige trangen til å synes at politiske kandidaters softfakes er «morsomme» eller «søte». Hensikten med disse er ikke å lyve for deg – de er ofte åpenbart KI-generert. Målet er å gjøre kandidaten sympatisk, skriver hun.
---
Deepfakes: Bilder, videoer og lydklipp laget med KI så det ser ekte ut.
Softfakes: Manipulerte bilder, videoer og lydklipp.
---
Prabowo Subianto vant nylig presidentvalget i Indonesia. Under valgkampen florerte han som en liten rund avatar på sosiale medier og storskjermer.
Avataren sto i skarp kontrast til hvem Subianto egentlig er.
Han er tidligere militærgeneral, og er blitt anklaget for menneskerettighetsbrudd og krigsforbrytelser. Men avataren danset på TikTok og ble omtalt som en søt bestefar. Den yngre generasjonen av velgere var ifølge BBC ikke kjent med Subiantos mørke fortid, og avataren ble en stor suksess.
Les også: – Disse menneskene bruker sin siste levetid på å kjempe i systemet
Forvrengt bilde
Slike eksempler er bekymringsverdige. Når kandidater til politiske verv bruker KI til å framstille seg annerledes enn de egentlig er, kan det påvirke valgutfallet, poengterer dataforsker Chowdhury i Nature.
Celise Skaar er samfunnsviter og rådgiver for bærekraftig samfunnsutvikling. Hun skrev nylig et innlegg i Dagsavisen om bruken av kunstig intelligens i den britiske valgkampen.
– Det kan bli et demokratisk problem, dersom man bruker KI til å skape et forvrengt og overdrevent gunstig bilde av seg selv som kandidat, og dermed villeder velgerne om ens ekte egenskaper i politikk og historie. At det er så overdrevent som det kan bli med bruk av KI kan være veldig misledende for demokratiet, men ikke det å bruke KI som verktøy i seg selv. Innenfor politikk må KI bli brukt med omhu, fordi folk har et litt spesielt forhold til politikere og kan tenke at de er uærlige, sier Skaar.
Det er ikke første gang en «morsom» KI-avatar er blitt benyttet av en politiker med gunstig utfall.
Presidentkandidaten Yoon Suk-yeol benyttet også en digital avatar under det sørkoreanske valget i 2022. Avataren så ut som den middelaldrende mann, men hadde en ungdommelig retorikk. Formålet var å engasjere unge velgere som leste nyheter på nett og mobil.
Det funket. «AI Yoon» fikk flere millioner visninger på kort tid.
«AI Yoon» brukte også humor for å avlede oppmerksomheten fra tidligere skandaler, som å motta upassende gaver i form av fruktkurver.
Les også: Det offentlige helsevesenet skal ikke leke butikk
Bruker humor
Eksemplene viser at politikere kan endre personlighet gjennom KI-generert innhold og at de gjerne spiller på humor.
Et annet «morsomt» innslag ble delt på X av høyrepartiet Dansk Folkeparti i april. Det er en video som spiller ut partiformannen sitt «skumle» mareritt om statsminister Mette Frederiksen, som holder pressemøte om røde dager.
Statsministeren ser litt rar ut. Videoen er åpenbart KI-generert.
– Dette bør man overhodet ikke bruke i politikken. Det bør være en regel om at vi ikke bruker sånne typer falske videoer, bilder og lydklipp, sier Skaar.
Etter stor kritikk av videoen svarte formannen for partiet Morten Messerschmidt at «man må være fullstendig blottet for humor og kritisk sans, hvis man ikke kan se at det er et kunstig innslag med Mette Frederiksen.»
Det er ikke poenget, mener Skaar.
Bare moro?
– Selvfølgelig skal vi trene opp den kritiske sansen, men det har jo ingen plass i politikken å lage sånne ting. Det sender på mange måter et signal om at denne type oppførsel er grei. Man kunne se at videoen av Mette Frederiksen var fake, men på neste video kan man kanskje ikke det, sier hun og legger til:
– Og dersom man som politiker bidrar til å normalisere at falsk innhold sprer seg, så bidrar det også til en norm om at det kanskje er greit litt uavhengig av alvorsgrad.
Problemet ligger altså i hvilke normer for oppførsel vi skaper med KI, og disse normene må ifølge Skaar læres, både i politikken og i samfunnet. De beslutningene vi tar nå, vil forme hvordan det vokser, mener hun.
– Er det ikke litt interessant å pålegge befolkningen ansvaret for å forstå deepfakes og ikke selv ta ansvar som folkevalgt politiker?
– Akkurat. En folkevalgt blir jo på mange måter valgt fordi de er rollemodeller. De skal gå foran, og ikke bare skyve ansvaret nedover, spesielt ikke når det gjelder nye, kompliserte ting, som endrer seg så mye som KI og tech gjør nå. Det er litt som de har gjort i klimabevegelsen. Store institusjoner som har stort ansvar for klimaet, skyver ansvaret nedover på enkeltforbrukere, som ikke kan sitte med dette ansvaret alene. Det er jo feil, og det samme gjelder for KI, sier Skaar.
Les også: Klima- og miljøpolitikk flytter ikke franske velgere
Valgkamp bak lås og slå
KI benyttet av politikere trenger ikke ha et «morsomt» preg.
Tidligere pakistansk statsminister Imran Khan benyttet KI til å føre valgkamp bak lås og slå. Han er blitt dømt i en rekke saker, blant annet for å skulle ha lekket statshemmeligheter. Fram til valget i starten av året, ble stemmen hans klonet gjennom KI for at han kunne snakke til folket.
Ifølge CNN blir bruken av KI-lydopptak ansett for å være et eksempel hvordan KI-teknologi kan benyttes av politikere som «sier de kjemper mot statlig undertrykkelse».
I nabolandet India hadde KI stor innflytelse på valgkampen tidligere i år. Her ble også stemmer klonet, men for å imøtekomme Indias 22 offisielle språk.
– Veldig mange av de indiske politikerne brukte KI for å nå ut til velgerne. Når du tenker på dette og drar det litt ut over konteksten til Norge, selv om vi er ganske små i forhold til India, så er det forståelig at man kan bruke KI som verktøy til å nå ut til flere, sier Skaar.
Problemet er imidlertid at KI ikke bare ble brukt til oversettelse, mener hun.
– Det ble brukt til å forvrenge virkeligheten, å overdrive og styrke det politiske budskap. Det største problemet som ligger i at politikere bruker KI på den måten, er dette med tilliten, som er en grunnstein i demokratiet.
Les også: Pensjon: Dette avgjør om du har rett til AFP
– Skjør tillit
Ett par virale videoer viste for eksempel to Bollywood-stjerner, som talte til opposisjonen. Men disse var deepfakes laget uten stjernenes samtykke, og de meldte også dette til politiet, skriver BBC.
Statsminister Narendra Modi, som vant for tredje gang, uttrykte i tillegg bekymringer for at KI ble brukt til å forvrenge taler holdt av ham og andre partimedlemmer.
– Mange av velgerne er kanskje ikke klar over at de har sett på en KI-generert video eller stemme. Når dette skjer, påvirker det den allerede skjøre tilliten til politikerne. Det gjør det vanskeligere, når politikere velger å aktivt bruke KI selv. Tilliten er hovedproblemet, særlig hvis man ikke er ærlig om bruken av KI, sier Skaar.
KI-bruken i India er verd å bemerke, fordi det kan vise hvilke utfordringer andre demokratier kommer til å møte, skriver Asia Pacific, en canadisk ikke-statlig organisasjon.
Les også: Fotballeksperten har fått et hjerte for EMs utfordrere
Lurt å forebygge
– Vi trenger absolutt reguleringer og uskrevne regler. Snakker vi om politikere spesifikt, bør det helst være globale retningslinjer, fordi innenrikspolitikken påvirker den globale sikkerheten, sier Skaar.
Hun mener det hadde vært ideelt med globale retningslinjer, men at dette er urealistisk med tanke på hvor sakte ting går fremover, sammenlignet med hvor fort teknologien utvikler seg.
– Hvis man kan få det i Norge, er det på mange måter en liten start som andre land kan se til, sier hun.
Ikke fordi hun forventer at overdrevent KI-bruk vil overta Stortinget med det første, men samtidig er det lurt å forebygge.
Selv om flere er imot obligatorisk vannmerking på KI-generert innhold, er dette en form for global retningslinje som Skaar tror kan være nyttig.
– Om det er avatars, softfakes, deepfakes, må man ha en vannmerking som forteller sluttbrukeren som konsumerer dette innholdet at det faktisk er KI-generert, slår hun fast.
Les også: Høy terskel til uføretrygd: – Er ikke eksakt vitenskap
Les også: Tone endrer verden for «Tony»: – Vi har fingeren på pulsen
Les også: Peaches om det tyske rikets tilstand: – Vi har et slags «tysk sårbarhetsøyeblikk»