Kunst

Det gamle portrettet beveger seg, blinker og smiler. Litt nifst, men enkelt med ny teknologi

Julius Cæsar smiler prøvende. Dronning Victoria ser ut som hun plutselig husket noe viktig. Ny teknologi gjør det mulig å omdanne gamle – eller nye – portrettfotografier og -malerier til levende «filmsnutter».

Kunstig intelligens, AI, kan brukes til så mangt. My Heritage, som er et nettsted for slektsgransking, lanserte nylig en tjeneste der nettstedets brukere kan gjøre gamle familiefotografier «levende» ved hjelp av AI.

Etter behandling blir det flate stillbildet til en liten filmsnutt der personen på bildet snur på hodet, blinker, og i mange tilfeller smiler – omtrent slik de kan ha sett ut like før fotografen trykket på utløseren og frøs øyeblikket.

Suksess

Ifølge My Heritages egen blogg, ble tjenesten en enorm suksess fra starten, med over en million opplastede bilder bare det første døgnet. Mange legger nå bildene ut på Instagram og i andre sosiale medier, med emneknaggen #deepnostalgia.

Ikke uventet, er det mange som bruker teknologien også på fotografier av alle slags kjendiser, fra politikere og statsledere til skuespillere og artister.

Kjendiser

Et portrett av britiske dronning Victoria, som levde fra 1819 til 1901, og som regjerte Storbritannia og Irland fra 1837 til sin død, er blant dem My Heritage selv har kjørt gjennom programmet:


Mange museer har også oppdaget at teknologien ikke behøver et faktisk fotografi, men også fungerer på realistiske portrettmalerier, eller til og med fotografier av realistiske statuer.

Som her, hvor den romerske hærføreren og statslederen Julius Cæsar (100 f.Kr-44 e.Kr) ser hakket mindre streng og alvorlig ut etter at AI’en har gitt bysten hans liv og et lite smil:

Eller her, hvor komponisten Johann Sebastian Bach ser ut til å lete etter sin beste portrettvinkel.

Norske Nasjonalmuseet har også kastet seg på trenden, med en livaktig versjon av et utsnitt av Aasta Nørregårds selvportrett fra 1911, og hennes portrett av Martine Cappelen Hjort fra 1897:


«Deep fake» kan misbrukes

Ifølge vitenskapsmagasinet Live Science, lærte dataprogrammerene opp den kunstige intelligensen ved hjelp av ulike modellvideoer som viser hvordan mennesker normalt beveger øyne, munn, øyebryn, kinn og hodet, og setter det hele sammen slik at det oppleves realistisk. Programmet virker best på portretter tatt rett på, og dårligere når noe, som for eksempel tenner eller ører, mangler i originalen.

Teknikken kalles også «deepfake», særlig når den inkluderer tale. Da kan den brukes til forfalskning, ved for eksempel å legge ny lyd og nye bevegelser på historiske – eller nålevende – personer, og få det til å se ut som de sier eller gjør ting de aldri har gjort.

My Heritage lot imidlertid være å inkludere lyd i sine femsekunderssnutter, nettopp for å unngå slik misbruk.