Debatt

Kan vi stole på kunstig intelligens?

Blind, ukritisk tillit kan ende opp med å undergrave velferdsstaten.

Dette er et debattinnlegg som gir uttrykk for skribentens holdninger og meninger. Du kan sende inn debattinnlegg til debatt@dagsavisen.no.

Nytten av kunstig intelligens må vurderes i forhold til velferdsstatens prinsipper. Vi må vite mer om hvordan dette skjer i praksis.

Den norske velferdsstaten kan ha stor nytte av kunstig intelligens (KI) og maskinlæring. Denne teknologien kan forbedre offentlig beslutningstaking ved å gjøre den raskere, mer kostnadseffektiv, mer nøyaktig og upartisk. KI kan for eksempel forbedre legers diagnostisering av pasienter eller myndighetenes avdekking av skatteunndragelser.

Når menneskelig skjønn og beslutninger erstattes av algoritmer, reiser det spørsmål om tillit. Er algoritmene pålitelige, er de utviklet på en ansvarlig måte og kan vi egentlig ha tillit til algoritmer slik vi har tillit til andre mennesker og institusjoner?

I 2020 lanserte den forrige regjeringen Nasjonal strategi for kunstig intelligens. Ambisiøse mål om innovasjon og etisk akseptabel kunstig intelligens (KI) ble skissert i generelle vendinger. Den norske strategien var utviklet i tråd med EUs retningslinjer om «tillitsverdig KI» (2019).

Nå, snart tre år senere, kan vi spørre om vi i dag bør ha tillit til KI. Kan vi ha tillit til at innførte KI-systemer fremmer velferdsprinsipper som menneskeverd, likebehandling, rettferdighet, solidaritet og beskyttelse av grunnleggende goder som utdanning, helse, omsorg, inntekt og trygd?

Slagordet «tillitsverdig KI», som brukes i en rekke forskningsartikler og policydokumenter, er misvisende. Tillit er rettet mot individer, grupper og institusjoner som handler, vurderer og fatter beslutninger ut fra kunnskap, verdier og forventninger.

De som er tilliten verdig handler med evnen til å vurdere andre menneskers interesser og verdier på en ansvarlig måte. KI-teknologi danner ikke selv intensjoner om å beskytte menneskelige interesser og verdier.

Tillit til KI bør da i stedet forstås som tillit til de mennesker og institusjoner som utvikler og anvender teknologien. Vi kan ha tillit til at KI er designet, testet, anvendt og evaluert på en ansvarlig måte.

Den internasjonale forskningslitteraturen bugner over av analyser og ideer for hvordan vi kan sikre tillit til KI-beslutninger generelt. EUs rapport om tillitsverdig KI lanserte en rekke etiske prinsipper som er relevante å vektlegge når man har befolkningens interesser og verdier i sikte.

Disse generelle prinsippene må omsettes til konkret praksis innenfor de ulike samfunnssektorene. Dette forventes ikke å skje friksjonsfritt. Prinsippene kan komme i konflikt og det må avveies hvilke etiske hensyn som skal få forme teknologien og bruken av den.

Slike verdimessige avveininger må gjøres for hver enkelt KI-teknologi og sektoren den skal inngå i. Dette krever nøyaktig kunnskap om hvilke verdiavveininger KI-modellene baserer seg på og hvilke sosiale skjevheter som finnes i dataene som KI-systemene trenes på, og som bruk av teknologien kan reprodusere.

Videre etiske avveininger handler om hvilke samfunnsfunksjoner, som for eksempel omsorgsoppgaver, vi kan sette bort til KI-systemer uten at det får andre utilsiktede og uakseptable konsekvenser.

Det stilles få spørsmål, og en kritisk og klargjørende offentlig debatt om velkomne og uønskete konsekvenser er temmelig fraværende.

Skal vi ha berettiget tillit til beslutningstagerne, blir det avgjørende at slike politiske avveininger ikke tas i KI-labene eller lukkede styrerom.

De må utføres åpent og demokratisk.

Utvikling og bruk av KI involverer store datasett. Mange er opptatt av at vi må beskytte personvernet. Hvordan andre etiske utfordringer søkes ivaretatt er det ikke lett å få øye på. Det er uheldig. Uten innsikt blir tilliten blind.

En oppsummerende klargjøring fra myndighetenes side vil derfor være kjærkommen: Hvilke institusjoner har kommet på plass? Hvordan gir disse ordningene grunnlag for tillit?

Som redaktører av et nylig publisert spesialnummer om KI i velferdsstaten gikk vi bredt ut og inviterte til bidrag som på ulike vis kunne belyse samfunnsmessige konsekvenser av KI.

Responsen var på ingen måte enorm.

Dette er i seg selv tankevekkende, gitt at vi står overfor utvikling og innføring av teknologi som på grunnleggende vis endrer hvordan vi organiserer samfunnet vårt. Ingen av bidragene fremmet ren, bekymringsløs innovasjonsglede.

Alle fokuserte interessant nok på uløste utfordringer med KI som rettstatens premisser for velferdsstaten og ivaretagelse av profesjonsetikken i sosialt arbeid.

Vi mener det er på tide med en systematisk gjennomgang og klargjøring av hvilke spesifikke verdier som faktisk står på spill i velferdsstaten nå som KI-teknologi brer om seg.

I internasjonal konkurranse har Norge lenge kunnet smykke seg med å ha en særlig tillitsfull befolkning. Dette kan for eksempel forklare at vi klarte oss gjennom pandemien med relativt sett få dødsfall.

Folk stolte på myndighetene og fulgte reglene til tross for enormt mye usikkerhet. Vi fløt på en bredt og dypt forankret forventning i befolkningen om at myndighetene hadde som mål å håndtere pandemien til felleskapets beste.

Den samme, brede tilliten gjør seg trolig også gjeldende når KI fremmes som innovative løsninger på samfunnsmessige utfordringer som saksbehandling og helsehjelp. Det stilles få spørsmål, og en kritisk og klargjørende offentlig debatt om velkomne og uønskete konsekvenser er temmelig fraværende.

Det er ulike årsaker til denne tilliten, som for eksempel en solid statlig økonomi over mange år, åpne demokratiske beslutningsprosesser og omfordeling av sosiale goder. Samtidig har omfattende velferdsordninger bidratt til trygghet.

Da blir det ikke bare paradoksalt at myndigheter, forskersamfunnet og befolkningen ikke er mer opptatt av å utrede, debattere og sikre velferdsstatens prinsipper og betingelser i møte med KI teknologi. Blind, ukritisk tillit kan også ende opp med å undergrave velferdsstaten.

Hold deg oppdatert. Få daglig nyhetsbrev fra Dagsavisen

Mer fra: Debatt