Ingen har vel noen gang vært så gode til å dele ut kreative straffer som det de greske gudene var.
Fra den kjente historien om Sysifoss, som måtte rulle en stein opp et fjell i evig tid, bare for å se steinen rulle ned igjen når han nesten var på toppen, til Prometeus, som ble straffet av Zevs for å gi menneskene ilden. Han ble bundet til en klippe der en gribb kom og hakket ut leveren hans hver kveld, før den vokste ut igjen og det hele skjedde igjen neste dag.
Likevel er det få straffer fra gudene som var så grusomme som den som ble gitt Kassandra. Kassandra var en prestinne for guden Apollo, og hennes forbannelse var å komme med sanne advarsler som var dømt til å bli ignorert. Den mest kjente av dem var da hun prøvde å advare trojanerne om at den store hesten grekerne hadde satt igjen, kanskje ikke burde tas inn i byen.
Vi veit jo alle hvordan dét gikk til slutt.
Norsk offentlig sektor står faktisk oppe i sin første, vaskekte KI-skandale.
I det siste har det vært én setting der jeg også har følt meg litt som Kassandra. Nemlig når folk setter i gang med ukritisk hylling og bruk av såkalt «kunstig intelligens».
Min skepsis skyldes ikke, som noen frykter, at jeg tror KI-modellene er så farlige at de vil utslette menneskeheten. Ikke engang at modellene stjeler levebrødet fra kunstnere og bruker unødvendig mye strøm, vann og ressurser mens de gjør det.
Nei, rett og slett fordi den kunstige intelligensen er så dum. Og fordi den gjør oss alle dummere.
Man kan tilgis for å ikke ha fått med seg dette, for saken har vært pinlig underdekket, men norsk offentlig sektor står faktisk oppe i sin første, vaskekte KI-skandale.
Tromsø kommune har nemlig brukt en KI-modell i arbeidet med å utarbeide en 120 sider lang rapport om konsekvensene av å slå sammen og legge ned skoler og barnehager i kommunen.
Så ble det avslørt at flertallet av kildene rapporten viser til ikke finnes. Faktisk har man bare klart å spore opp sju av de 18 kildene rapporten oppgir. Resten av dem har KI-verktøyet deres dikta opp. «Hallusinert», som det heter på KI-språket. Og ingen har sjekket om bøkene som henvises til faktisk finnes.
Les også: I år kan vi stoppe fascismen, skriver Jonas Bals
Verst av alt var kanskje reaksjonen til Digitaliseringsminister Karianne Tung. Kort tid etter at skandalen var et faktum skrev hun følgende på sosiale medier: «Kommunen skal ha ros både for å ta i bruk teknologien, men også for å være åpne og reagere raskt når det viser seg at feil har blitt gjort».
La meg si dette så tydelig som det er mulig å gjøre: Kommunen skal ikke, under noe omstendighet, ha ros for å bruke et dataprogram som gjetter hvilke ord du vil skrive til å utarbeide ny skolestruktur!
Det er nemlig det mange av de programmene vi feilaktig kaller «kunstig intelligens» gjør. De er språkmodeller, som gjør en sannsynlighetsberegning av hvilke ord som skal følge hverandre i en gitt kontekst. De er omtrent like intelligente som utsagnet til Karianne Tung.
Hun har heller ikke rett i at kommunen har utvist spesielt mye åpenhet. Det var ikke åpenhet som gjorde at denne skandalen ble avslørt, det var våkne ansatte i skolesektoren og god journalistikk fra avisa iTromsø. Men Tung skal kanskje ha ros for å ta i bruk noen plussord, selv om de ikke passer.
Det er lett å se hvor det går gærent. Digitaliseringsministeren har fastsatt et mål om at 80 prosent av offentlig sektor skal bruke KI innen utløpet av 2025. Merk dere den målformuleringa.
Ikke noe om «hensiktemessig andel». Ikke noe om å tilpasse bruken av verktøyet til oppgavene som faktisk skal løses. Og aller viktigst: ikke noen retningslinjer for når man ikke skal bruke KI-verktøy. Bare et vilkårlig, unødvendig høyt måltall for en relativt uprøvd og ganske dårlig teknologi.
Bare bruk KI. For KI-ens skyld. Det er avsindig.
Les også Cornelia Kristiansen: Så kom de for å ta journalistene
Det er ikke dermed sagt at det ikke finnes gode bruksområder for språkmodeller, eller at det ikke finnes mer spesialiserte KI-verktøy som er genuint nyttige. Men det er helt nødvendig å koble inn den kritiske sansen. Å legge vekk tanken om at dette er en vidundermedisin. Å forstå når man ikke skal bruke KI.
Dessverre kommer dette bare til å bli verre. Jeg nevnte innledningsvis at den «kunstige intelligensen» gjør oss dummere. Det finnes allerede studier som tyder på at hyppig bruk av KI-verktøy fører til at brukernes evne til kritisk og rasjonell tenking reduseres, at de mister evnen til kritisk evaluering av informasjon, og at de begynner å stole for mye på at teknologien skal løse problemer og ta avgjørelser for dem.
Vi har vår første, store KI-skandale. Det blir garantert ikke den siste. For alt vi veit er det ikke den første engang, bare den første som blir avslørt.
Problemet er en innebygd, selvforsterkende mekanisme i bruken av generativ KI. KI-en finner på ting som høres bra ut, og fordi vi overgir vår kritiske sans til den blir vi stadig dårligere rustet til å avsløre den.
Kanskje det er på tide å høre mer på Kassandra enn på ChatGPT.