Den 4. april skrev min venn, Magnus Forsberg, om kunstig intelligens i sin kommentar i Dagsavisen; «Kunstig intelligens – ekte dumskap».

Jeg kjenner igjen hans skarpe penn og treffende observasjoner. Forsberg har en beundringsverdig evne til å sette fingeren på utfordringer i samfunnet, og jeg setter stor pris på hans kritiske blikk.
I denne saken tror jeg imidlertid at han tar feil – eller i det minste at han overser vesentlige nyanser.
La meg først presisere at jeg ikke snakker om absolutt all bruk av KI, og at dette innlegget ikke forsvarer ukritisk bruk av for eksempel bildegeneratorer – selv om disse også har sine fornuftige bruksområder.
Det er språkmodellene jeg først og fremst vil forsvare.
Det er også viktig å anerkjenne at det er klare personvern-, miljø-, demokrati- og opphavsretts-utfordringer ved bruk av KI. Disse debattene er essensielle, men jeg lar dem ligge – for nå.
Vi bør ikke avfeie modellene som «dumme».
Jeg bruker KI-tjenester daglig – til både profesjonelle og private gjøremål.
I mitt virke som advokat, pleier jeg å tenke på KI som en ekstremt kunnskapsrik advokatfullmektig, som dessverre ikke har fullstendig grep om juridisk metode og som er tilbøyelig til å finne på kilder for å overbevise meg om at hen er en luring.
Dette betyr ikke at verktøyet er verdiløst – det betyr at jeg må bruke det med omhu.
Jeg finner mye nytte i min bruk av språkmodeller. På samme måte som at du ikke nødvendigvis kan stole på alt som står på det første treffet på Google (som jeg bruker mindre og mindre), må man undersøke kildene.
Jeg er, som advokat, alltid ansvarlig for det produktet jeg leverer – helt uavhengig av hvilke tjenester jeg benytter.
Forsberg viser til skandalen i Tromsø, hvor en KI-modell ble brukt til å utarbeide en rapport som inneholdt hallusinerte kilder. Rapporten ble fremlagt med de ikke-eksisterende kildene. Dette er selvfølgelig sterkt kritikkverdig.
Etter min mening, ligger imidlertid ikke problemet i bruken av KI, men at verken den ansatte i administrasjonen som brukte språkmodellen, eller noen andre, kontrollerte kildene før rapporten ble fremlagt.
Det er, i mine øyne, på linje med at administrasjonen bevisst gikk inn for å lure beslutningstakerne. Dette kunne skjedd uten bruk av KI.
Det viser ikke at KI er ubrukelig – det viser at administrasjonen ikke har brukt verktøyet riktig.
Det er også mulig å tolke digitaliseringsminister Karianne Tungs uvørne kommentar litt mer velvillig enn Forsberg gjør i sin tekst. Når hun roser kommunen for å ta i bruk teknologien og for åpenhet, handler det nok ikke om å applaudere feil, men om å anerkjenne at innovasjon krever prøving og feiling.
Heldigvis ble feilen oppdaget. Det viktige er at vi lærer av feilene, og jeg håper alle lærer noe av den saken.
Historien er full av eksempler på at nyvinninger har ledet til påstander om at de er fordummende.
Denne teksten er skrevet ved hjelp av to KI-modeller.
Da det ble vanlig å bruke referanseverk – som leksika – innen tidlig vitenskap, var det lærde som fryktet at dette ville gjøre leserne late og overfladiske fordi de kunne hoppe direkte til det de var interessert i, istedenfor å lese hele verket.
Historikeren Ann Blair har dokumentert hvordan nye lese- og organiseringsmetoder ofte er blitt møtt med skepsis.
Jeg vil også utfordre en sammenligning som noen andre, som jeg for øvrig også respekterer, har trukket fram: Noen likestiller oppmerksomheten rundt KI med hypen vi så rundt blokkjeder for noen år siden.
Jeg mener dette er en misvisende analogi. Blokkjeder ble i stor grad drevet av spekulasjon og et løfte om en teknologisk fremtid som aldri materialiserte seg. Det var dømt til å mislykkes.
KI, derimot, har allerede funnet sin plass i hverdagen til vanlige mennesker – innenfor et bredt spekter av profesjoner: undervisning, juss, journalistikk, programmering, design, forskning, kundeservice – listen er lang.
Noe av det viktigste jeg har lært om KI-bruk er viktigheten av gode prompts. Fordi enkle spørsmål gir dårlige svar.
Videre er verktøyet langt mindre hjelpsomt jo mindre brukeren selv kan om emnet hen spør om. Det er viktig å lære seg, jobbe med, og utvikle sine prompts for å få gode svar.
Hvis du ber en KI-modell om å «fortelle om erstatningsrett», får du et generisk og overfladisk svar.
Hvis du i stedet beskriver en anonymisert, men spesifikk, juridisk problemstilling, med relevante fakta og kontekst, og ber om en analyse basert på konkrete rettskilder, får man langt mer nyttige svar.
For å tolke verdien av disse svarene trengs det et visst nivå av kunnskap om rettsområdet, og man må ikke minst sjekke kildene.
Forsberg har rett i at vi må være kritiske og bevisste i vår bruk av KI. Men vi bør ikke avfeie modellene som «dumme» eller bare skadelige. De er verktøy – med alle de muligheter og begrensninger som følger med.
Forsberg nevner Kassandra, fra gresk mytologi – hun som var dømt til å komme med sanne advarsler som aldri ble trodd. Men kanskje passer en annen karakter fra mytologien bedre i denne sammenhengen: Daidalos.
Han rømte fra fangenskap på Kreta med sin sønn, Ikaros, ved hjelp av vinger han hadde laget. Teknologien var løsningen, men også problemet. Utfordringen var å bruke den riktig – å la være å fly for nær solen. Ikaros gjorde dessverre det, og falt til sin død.
Avslutningsvis må jeg innrømme at denne teksten er skrevet ved hjelp av to KI-modeller. Dette har jeg, kanskje ikke overraskende, gjort nettopp for å vise hvordan modellene kan være til hjelp.
Jeg har imidlertid sjekket kildene, og raffinert teksten. Innholdet, argumentene og meningene er mine.
Verktøyet har hjulpet meg å formulere dem, men ansvaret for det skrevne er og blir mitt eget.
Les også: Dette får etterlatte av din pensjon når du dør (+)
Les også: Stor guide: Dette er årets påskekrim på TV
Les også: Derfor har Elon Musk så mange barn