Debatt

Kan vi stole på staten hvis den bruker kunstig intelligens?

Å utelukke kommersielt utviklet KI i offentlig sektor, er ingen løsning. Da sakker vi akterut.

Dette er et debattinnlegg som gir uttrykk for skribentens holdninger og meninger. Du kan sende inn debattinnlegg til debatt@dagsavisen.no.

Folk flest stoler på offentlig saksbehandling. Men hva skjer hvis vi bruker kunstig intelligens (KI) som del av saksbehandlingen? Jo, da stuper tilliten!

I Norge har vi stort sett tillit til at beslutningene som fattes, er riktige. Men hva skjer med tilliten dersom statlige etater bruker KI som del av saksbehandlingen? Det lurte vi i Arkivverket på, og ba Respons Fakta undersøke for oss.

Konklusjonen er et markant dropp i tilliten dersom KI er del av saksbehandlingen!

De som selv jobber i offentlig sektor, har naturlig nok høyest tillit til beslutninger fattet i det offentlige: Kun 11 prosent av dem har i utgangspunktet lav eller svært lav tillit, mens 54 prosent av dem har høy eller svært høy tillit. Men når vi introduserer bruk av KI, øker andelen skeptikere til 35 prosent.

Inga Bolstad

I det private er man i utgangspunktet mer skeptisk: 25 prosent har lav eller svært lav tillit. Når vi introduserer KI, øker skeptikerandelen til 45 (lav eller svært lav tillit).

Med andre ord: Differansen mellom privat og offentlig ansatte viskes i stor grad ut når vi introduserer KI. Man stoler altså mer på egne vurderingsevner og godt skjønn, enn på maskiners intelligens.

Er det grunn til det? Bør vi være på vakt? Og hvorfor bryr Arkivverket seg om dette?

For å ta det siste først: I Arkivverket lagrer vi nasjonens hukommelse for ettertiden. Vi er opptatt av at ettertiden skal kunne finne svar på hva staten har besluttet og bestemt. Og vi er opptatt av at «sannheten» finnes i arkivene.

Øyvind Akerhaugen

Men også i gamle papirarkiver ser vi at dokumenter kan være manipulert, at det er brukt korrekturlakk og at ting er strøket over. Vi skal selvfølgelig stille strenge krav til maskiner, men kanskje ikke strengere enn vi stiller til mennesker?

Vi må ikke få panikk bare fordi det er en annen type logikk.

Heller ikke mennesket er ufeilbarlig. Hodet til saksbehandleren kan også fungere som en «svart boks», vi vet ikke hva som ligger til grunn for vurderingen: Hen kan være unøyaktig eller farget av personlige meninger. Hen har sine politiske oppfatninger og kan bli påvirket av andre.

I Arkivverket er vi teknologioptimister. Ny teknologi gir oss store muligheter, og den tar ned risikoen for at informasjon blir tuklet med: I digitale løsninger kan vi sikre informasjonen mot endringer. Teknologien gjør det lettere å finne frem i informasjon, den forbedrer måten vi bevarer beslutninger på for fremtiden, og den letter arbeidet med innsyn og sladding.

Vi har brukt maskinlæring, en gren av KI, i noen år nå. Milevis av våre arkiver består av papirdokumenter, og mye er skrevet for hånd. Å gjøre dokumentene tilgjengelige for folk flest handler om å gjøre dette digitalt og søkbart. Da er maskinlæring og bildegjenkjenning nyttig.

Vi har også spart mye tid med en maskinlæringsmodell som automatisk finner og sladder personnummer, slik at info kjapt kan deles med de som trenger den, uten manuell kontroll. Da vi lanserte, hadde vi under 90 prosent nøyaktighet – nå er vi på 97.

Hvor nøyaktige menneskene som hadde jobben før var, vet vi ikke. Men vi vet at vi er adskillig mer kritiske til feil gjort av maskiner enn av mennesker.

Hvor nøyaktige menneskene som hadde jobben før var, vet vi ikke. Men vi vet at vi er adskillig mer kritiske til feil gjort av maskiner enn av mennesker.

Men selv vi teknologioptimister ser farene. Vi har alle lest kjedsommelig mange innlegg om hvordan ChatGPT lager fantasifulle CV-er. Men generative språkmodeller har ikke noe forhold til sannhet.

De er gode til å konstruere språk og har et forhold til om ting hører sammen, men ikke til hvordan de hører sammen. Da kan det fort bli rot, og modellene er også i stand til å finne opp ting som ikke har skjedd.

Vi tror ikke generativ KI blir utbredt i offentlig saksbehandling, men det kan absolutt bli risikabelt dersom saksbehandlerne begynner å bruke ChatGPT i sin research under saksbehandlingen.

Så hva gjør vi?

Vi må finne ut hva som er nødvendig grad av kontroll.

Offentlige virksomheter har et ansvar for å sikre god forvaltning av dokumentasjonen i offentlig sektor. De må kunne vise hvilke beslutninger de tok, og på hvilket grunnlag. Og Arkivverket har tilsynsansvaret for dette.

For å bevare tilliten må vi fortsatt ha god etterrettelighet, også når ting blir digitalt og mer ugjennomsiktig. Tradisjonelle saksbehandlingsløsninger med mer eller mindre lesbar kildekode og tydelig definerte beslutningstrær, er ikke så vanskelige å forholde seg til for ettertiden.

Men med stadig mer automatisering ved hjelp av teknologi som ikke lar seg dokumentere på detaljnivå, kan det blir vanskeligere å ivareta rettigheter og tillit.

Vi må finne ut hva som er nødvendig grad av kontroll, kombinert med tilstrekkelig handlingsrom. Dette er det fornuftig å løse på nasjonalt nivå, det er ikke smart at hver virksomhet skal finne opp kruttet. Derfor trenger vi også en god politisk diskusjon.

Men å tråkke inn bremsen og utelukke bruk av kommersielt utviklet KI i offentlig sektor, hjelper ingen. Da sakker vi akterut.

Hold deg oppdatert. Få daglig nyhetsbrev fra Dagsavisen

Mer fra: Debatt