Troværdig løgn?

Forskning i AI og deepfake-teknologi viser, at vi mennesker har meget svært ved at skelne mellem falske og kunstigt genererede ansigter, og at kunstigt genererede ansigter faktisk kan virke mere troværdige end den ægte vare:

https://www.pnas.org/content/119/8/e2120481119

Undersøgelsen viser også, at når man bruger de nyeste teknologier kan almindelige mennesker i praksis ikke se, om personen i videoen er falsk eller ægte. Forsøgspersonerne gættede rigtigt på spørgsmålet om ægthed i ca. halvdelen af tilfældene, hvilket indikerer at der var tale om, ja, gæt.

Vi møder i begrænset omfang allerede rigtige, ægte budskaber fra troværdige afsendere kommunikeret gennem falske personer, som fx Bridget fra Bornholm. Med forskningsresultater som ovenstående må man gå ud fra, at teknologien hurtigt vil udbredes til flere og flere “alvorlige” områder, selvom meget fokus indtil nu har været på anvendelse i såkaldt “deepfake revenge porn” og satire/underholdning.

Dette rejser vigtige etiske spørgsmål, bl.a. om i hvilke tilfælde det overhovedet er legitimt at anvende teknologien, og om og i givet fald hvordan vi skal deklarere brugen af kunstige personer.