Digitaliseringsminister Karianne Tung har satt som mål at innen 2025 skal 80 prosent av offentlig sektor ta i bruk kunstig intelligens (KI).
Men dersom vi lar KI ta over beslutningene i samfunnet, må vi sikre at maskinene tar høyde for menneskelig variasjon, og ikke minst at mennesker fortsatt får en ny sjanse.
Filmen «Minority Report» fra 2002 er kanskje ikke laget om kunstig intelligens, men den illustrerer flere utfordringer som KI-systemer står overfor i dag – særlig når det gjelder å fatte beslutninger om fremtiden basert på nåværende data.
Hovedideen i filmen er at det fins muterte mennesker med visjoner om den nære fremtid. Disse såkalte «pre-cogs» brukes til å identifisere drap som vil skje i nær fremtid. De fremtidige, antatte lovbryterne blir arrestert før de rekker å gjennomføre drapet, og mordraten faller til null.

KI-modellene kan nå sammenstille enorme mengder data om alt fra sosioøkonomisk bakgrunn og bosted til historikk og atferdsmønstre. Det gir KI en imponerende evne til å forutsi menneskelige handlinger, om enn ikke like dramatisk som i «Minority Report».
Et eksempel på dette i praksis er at KI-modeller kan brukes til å bestemme hvem som skal få slippe ut på prøveløslatelse fra fengsel. Beslutningen om hvem som løslates, vil da baseres på en antagelse om fremtidig atferd – altså beslutninger om noe som ennå ikke har skjedd.
Selv om datamodellen spår at du skal bli en forbryter, er det ikke helt sikkert at du blir det. Det fins menneskelig variasjon som ikke KI kan fange opp.
Det er også lett å forestille seg at KI-modeller kan identifisere hvilke ungdommer som vil komme til å gå inn i en kriminell løpebane. Da er det ikke utenkelig at politikerne vil sette inn tiltak mot ungdommene – før de har gjort noe kriminelt.
Hold deg oppdatert. Få daglig nyhetsbrev fra Dagsavisen
Et sentralt poeng i «Minority Report» er at det finnes en «mindretallsrapport». En av de tre pre-cogs’ene kan se noe annet enn de to andre, og denne mindretallsrapporten blir holdt skjult. Mindretallsrapporten i filmen kan forstås som en mulig alternativ fremtid.
Oversatt til KI, kan den forstås som en beskrivelse av usikkerhet: Selv om datamodellen spår at du skal bli en forbryter, er det ikke helt sikkert at du blir det. Det fins menneskelig variasjon som ikke KI kan fange opp.
Det store problemet med dagens KI-systemer er at de ofte mangler en klar beskrivelse av usikkerheten knyttet til beslutningene.
Både i Norge og andre land har vi lenge brukt kjent kunnskap som grunnlag for å fatte beslutninger. Ofte i form av statistiske modeller, som regresjon. Disse modellene kan brukes til å forutsi for eksempel hvem som har størst sjanse for å misligholde et lån, eller når på døgnet flest råkjører.
Både Nav og UDI har store planer for å innføre KI i sin saksbehandling. Men det store problemet med dagens KI-systemer er at de ofte mangler en klar beskrivelse av usikkerheten knyttet til beslutningene.
KI har enorm kraft, men vi forstår ikke hva som skjer inne i den «svarte boksen». Hvis vi skal bruke KI til å fatte beslutninger, spesielt om noe som ennå ikke har skjedd, må det finnes alternativer til beslutningene som foreslås og en god beskrivelse av usikkerheten – vi trenger gode mindretallsrapporter.
Vi vet egentlig ikke hva som skjer inne i den «svarte boksen» som er KI.
Hva er usikkerheten? Dette er nettopp det store spørsmålet for filmens hovedperson, spilt av Tom Cruise: Hvordan i all verden har pre-cogs’ene kommet fram til at han skulle komme til å begå et drap? Akkurat dette er også et av de mest sentrale spørsmålene rundt KI. Vi vet egentlig ikke hva som skjer inne i den «svarte boksen» som er KI.
I tillegg til at vi i liten grad forstår hvordan beslutningene fattes, gir ikke KI-systemene oss beskrivelse av alternativer eller en tydelig forståelse av usikkerhet. Alle som har prøvd Chat-GPT har merket at alle svarene er like skråsikre – selv om noen av svarene har masse støtte i dataene, mens andre svar er fri fantasi.
KI har potensialet til å gi oss nyttige data som kan ligge til grunn for viktige beslutninger. Men vi kan ikke tillate at KI fatter beslutninger på egen hånd uten at vi skjønner hvordan disse beslutningene er fattet, eller uten at vi ser på alternativer.
For at vi skal kunne ta i bruk KI på en forsvarlig måte, må vi beholde en form for «mindretallsrapport» – en forståelse av usikkerheten og hvilke alternativer som fins.
Les også kommentar: Visstnok begynner hamburgersteker-robotene å bli ganske gode
Les også anmeldelse: Demi Moore gjør en sårbar kraftprestasjon (+)
Les også kommentar: Støre har den nye tidsånden mot seg (+)
Les også: Hvordan løser vi paringskrisen? (+)