
Kommentar:
Snikende roboter, skjulte språkmodeller
Det er kunstig intelligens overalt - likevel er det kanskje KI-en du ikke ser du burde bekymre deg mest for.
Dette er en kommentar. Holdninger og meninger i teksten står for skribentens regning.
Herrefred, det har vært mye kunstig intelligens i monitor i det siste.
Det er KI på kontoret. Det er KI i det offentlige ordskiftet. Et stort segment KI-evangelister dunster en så overveldende teknologioptimisme at det tidvis minner om for mye parfyme på en trang buss.
Høyere makter (i dette tilfellet amerikanske teknologiselskaper) har bestemt av vi skal ha KI. Og vi skal ha det der vi allerede bor. Man kan knapt åpne noen av sine vante apper og nettsider uten å bli påtvunget en eller annen «assistent». Gmail skal dytte på deg KI. Messenger skal dytte på deg KI. Hvert eneste program i Microsofts office-pakke skal dytte på deg KI.
La meg bare ta en liten pause i tiraden for å presisere at når jeg skriver om «kunstig intelligens» i dag, så skriver jeg om de generative språkmodellene som nå er over alt. Det finnes en mengde spesialiserte KI-verktøy med nyttige bruksområder innen sin nisje. Det er ikke dem vi snakker om.
Kunstig intelligens er som gjødsel - veldig bra til spesialisert bruk, men utrolig irriterende å stadig få dytta i trynet.
Kunstig intelligens er som gjødsel.
Så ja. Den kunstige intelligensen er overalt for tida. Likevel tror jeg vi burde være mer bekymra for den KI-bruken vi ikke ser.
Ta for eksempel KI-skandalen i Tromsø. Der ble en KI-modell brukt da kommunen skulle lage kunnskapsgrunnlaget til forslag for ny skolestruktur. Den 120 sider lange rapporten henviste til 18 kilder. Bare sju av dem fantes på ordentlig. Resten hadde KIen funnet på selv.
I etterkant av skandalen har saken om skolestruktur i Tromsø blitt utsatt med over et halvt år, avdelingsdirektør for oppvekst, utdanning og kultur har måttet gå av, og kommunen skal bruke over en million kroner på å granske saken. Sånn i tilfelle du har hørt at bruk av KI «effektiviserer» prosesser.
Men er vi så naive at vi tror dette er aller første gang? At den aller første byråkraten som heller ville la en språkmodell gjøre jobben ble tatt? Hvor mange ganger har dette skjedd uten at vi får vite om det. Uten at noen har fanget opp de oppdiktete kildene. Hvor mange politiske beslutninger har blitt tatt, og vil bli tatt, på grunnlag av noe en lat saksbehandler har latt en KI-modell koke opp?
Det er snakk om viktige, politiske prosesser. Dette påvirker menneskers liv.
Det er også snakk om rettssikkerhet. I vår avslørte Høyesterett for første gang en advokat som hadde brukt KI til å utarbeide prosesskriv. Også her hadde språkmodellen diktet opp kilder.
Og jeg spør igjen: Tror vi virkelig at den aller første til å prøve seg på dette blei tatt? Det er ikke så rart at denne typen juks ikke slipper gjennom Høyesterett, der man har en stab av svært dyktige utredere som nøye sjekker rettskildene i sakene som behandles. Men hva med i de underliggende rettsinstansene? Kan dommer ha blitt avsagt i lag- og tingrettene på grunnlag av hallusinerte kilder? Det veit vi ikke, men det er umulig å utelukke det.
Det handler om viktige ting. Det handler faktisk om liv og død.
Da USAs nye helseminister Robert F. Kennedy lanserte sin «Make America Healthy Again»-rapport for noen uker siden ble det også sitert kilder og studier som ikke eksisterer, og eksperter avisa Washington Post har snakket med sier at disse kildene bærer preg av å ha blitt generert av KI.
Akkurat i tilfellet Amerikas regjering vil kanskje noen hevde at kunstig intelligens tross alt er bedre enn ingen intelligens, men jeg syns likevel det er problematisk når akkurat USA, som er et ganske viktig land for både oss og verden, fatter beslutninger på bakgrunn av kilder en chatbot har dikta opp. Igjen må vi spørre oss selv: Tror vi virkelig at dette blir oppdaget den aller første gangen noen prøver seg?
Det er lett å tilskrive disse tilfellene til menneskelige feil. Alle KI-apologeter vil si at selvsagt må man faktasjekke det KI-en produserer. Selvsagt må man ettergå kildene.
Men problemet her er ikke menneskelige feil. Det er menneskelig natur. Og språkmodellenes natur. Språkmodellenes natur er at de vil — de må — gi deg et svar. Det er ikke så farlig om svaret er riktig.
Menneskets natur er at den typen mennesker som gjerne vil la en avansert versjon av autocorrect gjøre jobben for seg neppe er de mest nøye med å sjekke kildehenvisningene i etterkant.
Dessuten finnes det studier som tyder på at jo mer noen stoler på KI-verktøy i arbeidet sitt, jo mindre bruker de sin egne kritiske sans. Dårlig etterkontroll av KI-produkter er altså ikke brukerfeil, men et resultat av hva KIen gjør med oss. Den gjør oss latere.
Det er også mye som tyder på at den gjør oss dummere.
Og det er bare KI-en vi vet om. Tenk hvor mye skade den KI-en vi ikke vet om allerede kan ha gjort.