La sessió més apassionant que vaig veure a Davos va ser la conferència Searching for Truth que va dictar el professor Eyal Weizman, professor de Cultures Visuals i Espacials a la Universitat de Londres. Presentada per Human Rights Watch, versava sobre la reconstrucció forènsica de fets a partir d’informació desestructurada com fotografies, vídeos i àudios penjats a les xarxes socials. L’objectiu era recuperar la veritat d’uns fets sense haver-los observat en primera persona.
El primer exemple que va posar el professor em va resultar increïble. Va començar amb una sèrie de fotos i vídeos de testimonis presencials d’explosions a Gaza. Del material audiovisual només en sabia les seves metadades, que inclouen la seva geolocalització i el dia i hora. També sabia que no totes tenen metadades i que les que en tenen poden ser errònies o falses. Amb tècniques d’IA i d’aprenentatge màquina aconseguia fer una primera ordenació cronològica del material que a continuació disposava de forma geoespecial sobre un model de la ciutat de Gaza en 3D. A partir d’aquí i amb models de gràfics computacionals aconseguia simular el comportament del fum de les explosions, que casava amb el del material audiovisual de les xarxes socials. Arribats a aquest punt l’explosió es podia observar des de qualsevol punt, angle i moment. La conclusió era clara: l’explosió era causada per un míssil.
Després d’estudiar-ne la trajectòria en diferents fotografies, el sistema del professor va detectar altres dues trajectòries paral·leles amb un decalatge de dècimes de segon amb l’explosió. Van resultar ser dos altres míssils que provocarien sengles explosions posteriors. Amb aquesta informació l’equip del professor va poder identificar-ne el model, el fabricant i fins i el país venedor (EUA) que va servir a Human Rights Watch per a la seva denúncia.
"Tots hem vist Trump, Obama o Putin dir bestieses en vídeos a la xarxa on no podem distingir si han estat generats o són reals. Pensem en els vídeos escandalosos de candidats que podrien sortir dies abans d’unes eleccions (sense temps per a desmentiments)"
Dies després (i encara amb l’impacte de la presentació de Weizman al cap) vaig veure el tuit de Mikael Thalenon enllaçava un vídeo on s’hi veu l’actriu Jenniffer Lawrence responent unes preguntes a una conferència de premsa als Globus d’Or. Fins aquí tot normal si no fos perquè la cara de l’actriu és una suma de la seva i la de l’actor Steve Buscemi. Un deep fake en tota regla que no passa d’un divertimento viral. Però fa pensar. Els deep fakes són el producte dels avenços tecnològics en el camp de la intel·ligència artificial anomenat aprenentatge profund (d’aquí el deep). Amb aquesta tecnologia, xarxes neuronals aprenen a inferir regles a partir de conjunts grans de dades, en aquest cas de vídeos i àudios dels protagonistes Lawrence i Buscemi. Tots hem vist Trump, Obama o Putin dir bestieses en vídeos a la xarxa on no podem distingir si han estat generats o són reals.
El que sí que és real és l’impacte que els deep fakes poden tenir en la societat. Pensem en els vídeos escandalosos de candidats que podrien sortir dies abans d’unes eleccions (sense temps per a desmentiments), o en vídeos falsos de soldats nord-americans cremant Alcorans en regions en conflicte, o en un vídeo del Papa donant suport a un candidat o a un altre. Aquestes eines ja són accessibles a la Dark Web i d’aquí a no res tindrem aplicacions al mòbil que ho faran.
El problema es fa més gros si pensem que amb l’excusa dels deep fakes la veritat tindrà un tel de dubte permanent: en un entorn comunicatiu ple de deep fakes a Trump li hauria estat encara molt més fàcil qualificar de fake news les seves converses privades telefòniques on deia que li agradava agafar les noies per l’entrecuix. En territoris en conflicte com a Gaza, tindríem el vídeo on cau el míssil, el mateix vídeo al mateix lloc amb els nens jugant pacíficament al parc i un tercer on són els palestins qui llencen un míssil el mateix dia a la mateixa hora i des del mateix lloc. Al professor Weizman se li gira feina i a nosaltres més.