La balanza inmóvil

Ultrafalso

Este acrónimo del inglés, formado por falsificación y aprendizaje profundo, no es más que una técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de videos o imágenes ya existentes. El resultado final es un video muy realista, pero falso.

Cómo detesto el inglés. Primero por mi ignorancia, segundo, porque el español se habla por más personas que el inglés, y tercero porque nosotros somos latinos (del latín, no de Sudamérica), y sin embargo, ésta lengua está muerta, menos para los juristas, que la usamos frecuentemente. Todo parece que es más bonito si se dice en inglés, en lugar de decirlo en castellano. En mi opinión, salvo las canciones de Los Beatles, que perdían su gracia cuando eran cantadas en español, lo demás es mucho más rico y sonoro en nuestro idioma. Por eso, prefiero decir ‘ultrafalso’, en lugar de utilizar el término que está ahora de moda: ‘deepfake’. Sí, eso es. Se trata de vídeos falsos de personas creados por la peligrosa inteligencia artificial. El «difama que algo queda» siempre ha sido el lema de los malvados/as/es. Y el derecho ha tratado de castigar con penas proporcionadas a la calumnia y a la injuria. Pero ahora, gracias a las redes sociales, esas mentiras se divulgan de forma meteórica y por todo el orbe (con permiso de Carlos III), sin que exista una adecuada respuesta por las leyes.

A pesar de la urgencia en regular el impacto que supone contra las mujeres, la pornografía, la inteligencia artificial y la violencia contra las mismas, aún no se ha realizado. El uso de contenidos generados a partir de esa inteligencia, consistente en imágenes de personas reales, está haciendo mucho daño, sobre todo por el vacio legislativo que existe. Cada vez existen más ‘deepfake’ pornográfico, poniendo la cara de una persona a cuerpos más o menos insinuantes y provocativos, creando imágenes pornográficas con su cara y sin su consentimiento. Violencia contra la mujer, lo tilda la Asociación de Mujeres Juezas de España. Cuentan las crónicas que con la ley del ‘solo sí es sí’ se ha perdido una gran oportunidad para regular legalmente estas prácticas, sin necesidad de acudir al delito de injurias, pero no se hizo en su Montero, digo en su momento. Reflexión mía: mejor, no sea que se haga mal y no se reconozca el error. La pena que se llegó a proponer por las personas expertas era la de prisión de seis meses a dos años para quienes utilizaran las imágenes falsas, y multa de uno a tres meses para quienes redifundieran ese contenido a terceras personas.

Pero ¿cómo identificar los ‘deepfakes’? Cuentan que un método es el análisis de las imágenes, para comprobar si han sido o no manipuladas. Otra técnica es examinar si se han comprimido imágenes de archivo. Por último, otro sistema, consiste en observar si hay algún fallo en el montaje, como puede ser la iluminación o la fusión de las imágenes. O sea, que yo jamás sería capaz de discernir si estoy ante una ultra mentira o no. Por eso mejor sería regular como delito estas conductas, y que sea un perito, especialista en informática, quien diga si las imágenes son o no falsas. Aunque lo triste es que mientras tanto (y tal como está la justicia, puede que te salgan arrugas, antes que se ordene que se borren) está dando vueltas en las redes sociales un video con tu cara dale que te pego, a un sánscrito Kama Sutra casero, que a lo mejor ni sabes, ni quieres practicarlo.

Como los intereses son innumerables. Hay quien utiliza estos ‘deepfakes’ en el ámbito cinematográfico, si a mitad de un rodaje se queda afónico. O en el ámbito social, permitiendo que te puedas despedir de un ser querido reviviendo su imagen y voz, si no llegaste a tiempo de hacerlo en persona. No obstante, mucho me temo que las super trolas van a perjudicar más que a ayudar.

Suscríbete para seguir leyendo