Ver para creer» fue un método muy rudimentario de la antigüedad del siglo XX para diferenciar la verdad de la mentira. Pero en el nuevo siglo el ser humano habrá que hilar mucho más fino. Una de las características más peligrosas de las nuevas tecnologías digitales es que está borrando absolutamente la frontera entre realidad y ficción. Si les preocupa el asunto de las fake news, las noticias falsas, prepárense para la llegada de los deep fakes, esas ´falsedades profundas´ donde resulta imposible diferenciar si lo que nos están sirviendo es gato o es liebre.

Ya lo habíamos visto en el cine: el nuevo arte digital ´resucita´ actores muertos, crea multitudes y prodigiosos escenarios. Era algo reservado a genios de la animación de un lejano Hollywood cualquiera. Pero ahora esa tecnología está aterrizando en los ordenadores personales y, gracias a la computación en la nube, está poniendo en manos de millones de personas la posibilidad de crear muy fácilmente vídeos con realidades alternativas de cuya existencia casi no dudamos. Porque seguimos aplicando el viejo método: lo vemos, lo creemos.

Ya todos podemos fabricar mentiras perfectas. La plataforma de contenidos digitales Motherhood daba recientemente la voz de alarma sobre el impacto social que ya está teniendo el uso de esta tecnología. Motherhood constató que en algunos agregadores de noticias como Reddit o en sitios de chat como Discord, una comunidad creciente de personas estaban utilizando esta tecnología (en especial la aplicación FakeApp) para crear vídeos pornográficos en los que la cara de la protagonista real era reemplazada por la de cualquier estrella femenina de Hollywood. Y algo más: muchos estaban dando rienda suelta a sus frustraciones o ansias de venganza tomando escenas pornográficas y sustituyendo las caras originales por las de sus exparejas, novias del instituto, vecinos o vecinas varios.

En concreto, las nuevas técnicas de aprendizaje automático de la Inteligencia Artificial habían permitido a unos usuarios crear un vídeo ´bastante bueno´ de una chica con la que habían ido a Secundaria gracias a 380 fotos que habían extraído de sus cuentas en Instagram y en Facebook. La misma publicación estadounidense constató que había ´decenas de miles de personas´ suscritas a estos grupos creadores de deepfakes. En Reddit, el apartado dedicado a aprender a fabricar estos vídeos falsos contaba hace dos meses con más de 15.000 suscriptores. Los ingredientes están a mano con herramientas de código abierto como Instragram Scraper o la extensión de Chrome DownAlbum que, según Motherhood, permiten extraer fotos de la víctima de sus cuentas públicas en las redes.

El cuerpo y el rostro de un actor/actriz porno que encaje se encontrará con otras herramientas de reconocimiento facial como Porn World Doppelganger o FindPorn Face. Luego basta con darle al botón y difundirlo.

La gente lo verá.

Y lo creerá.