Kommentar

Når du blir misbrukt av appen din

Dataene vi forer AI med, sier mye om hvilket samfunn vi lever i. Det som kommer ut på andre siden, kan være skremmende.

Dette er en kommentar. Holdninger og meninger i teksten står for skribentens regning.

Med kunstig intelligens er det i ferd med å åpne seg nye dører og nærmest uante muligheter.

Det er lett å danne seg en forestilling om at kunstig intelligens er kjølig og nøytral. AI-en har ingen følelser eller agenda, og samler data for å gi oss et objektivt bilde av verden. Eller?

Ikke lenger kult, bare veldig, veldig skummelt

På godt og vondt lever de fleste av oss et slags dobbeltliv – et liv i virkeligheten og ett på skjermen, i en virtuell virkelighet. Vi kan finne et fellesskap her, komme i kontakt med mennesker vi ellers aldri ville ha møtt. Vi kan iscenesette oss selv, lage en SoMe-versjon av oss selv som er «bedre» enn den vi er i virkeligheten. Og nå får vi hjelp av AI-apper.

Lensa er en app som tok av før jul i fjor. Da var den blant de mest nedlastede gratisappene i App store. Populariteten skyldes at appen ved bruk av AI kan lage kule tegneserieversjoner av deg – «magic avatars», som de kalles, mot en relativt liten sum penger. Brått var Instagram full av slike magiske avatarer. Kult, ikke sant?

Vel, rent bortsett fra at slike apper kan ta jobben fra kunstnere av kjøtt og blod, representerer de andre store utfordringer.

Når Lensa forvandler selfiene dine til avatarer, vil den samtidig forskjønne («beautify») deg. Rett og slett gjøre deg penere enn du er i virkeligheten. Men hvem bestemmer hva som er pent? Det er summen av all dataen AI-en trener på. Det viser seg at det betyr at hvis du ikke er lyshudet og tynn i utgangspunktet, gir appen deg hvitere hud og slankere kropp. Ja, i hvert fall hvis du er kvinne. Det vestlige skjønnhetsidealet gjelder altså, uansett hvor du kommer fra og hvordan du ser ut i utgangspunktet.

Men ikke bare det, er du kvinne innebærer Lensas definisjon av skjønnhet også at du er utfordrende kledd, eller naken, og at du poserer med trutmunn og soveromsøyne.

Er du mann, kan du bli astronaut. Er du kvinne, blir du et objekt.

Flere kvinner som har skrevet om appen, opplevde at Lensa seksualiserte dem, selv om de la inn bilder av bare ansiktet, eller bilder der de var fullt påkledd. Lensas retningslinjer sier at det ikke er lov å legge inn bilder av barn, men har tilsynelatende ingen kontroll over hvorvidt brukerne følger disse reglene. Også bilder som åpenbart er av barn, kommer ut som seksualiserte avatarer.

Ikke lenger kult, bare veldig, veldig skummelt.

Utviklingen av kunstig intelligens har skutt fart. Lovgivere henger ikke med i reguleringen av trusselen - eller verktøyet - som AI kan være. Det kan få store negative konsekvenser både for enkeltmennesker og for demokratiet. For eksempel kan stemmeklonings-AI brukes til å misbruke stemmene til politikere og kjendiser, eller til å svindle enkeltpersoner.

Når kunstig intelligens blir så god at den kan servere oss bilder, lyder og videoer som ser ekte ut, blir det vanskelig å skille mellom virkelighet og det som er fake. Eller deepfake.

En ting er hva det kan gjøre med oss som mennesker. En annen ting er hvordan det kan brukes til å skade mennesker. En forsmådd 13-åring kan bruke Lensa til å produsere digitalt overgrepsmateriell av ekskjæresten. (Lensa anbefaler at brukerne har fylt 13, men appen har 4-årsgrense i App store.) To millioner kvinner har blitt misbrukt i en AI-app som satte ansikter av vanlige kvinner på pornofilmer. 90 prosent av de som blir utsatt for slike deepfake-overgrep er nettopp kvinner.

Kunstig intelligens kan dermed vise oss hvem vi er: et samfunn som diskriminerer basert på etnisitet, kroppsfasong og kjønn. Og dermed blir også AI-en diskriminerende. Den lærer jo av oss.

Et av feltene der kunstig intelligens virkelig kan gjøre mye bra, er innen medisin og helse. Men også her kan skjevheter i datamaterialet diskriminere for eksempel kvinner og melaninrike mennesker – og dermed være skadelig. AI er hyppig brukt i ansettelser, men også der slår skjevheten negativt ut for enkelte. Dårlig data inn blir dårlig resultat ut.

Så hvordan fikser vi dette? Jeg kan for lite om kunstig intelligens til å skulle komme med en løsning som fikser alt. Men jeg må innrømme at jeg er bekymret. Og jeg tenker at først når vi er klar over blindsonene i dataene, er det mulig å gjøre noe med dem. Men det er også helt essensielt at vi som samfunn bestemmer oss for hvordan kunstig intelligens skal kunne brukes – og ikke brukes – i framtida. Og framtida, den er her nå.

Hold deg oppdatert. Få daglig nyhetsbrev fra Dagsavisen