Saltar al contenido principalSaltar al pie de página

Opinión | Avatares on/off

Actrices de laboratorio y ‘fake news’ con la IA

Si no se exige transparencia en el uso de la IA, no sabremos si la noticia que vemos, la actriz que admiramos o la sonrisa que nos emociona son reales o líneas de código bien entrenadas

Tilly Norwood, la primera actriz generada completamente por Inteligencia Artificial.

Tilly Norwood, la primera actriz generada completamente por Inteligencia Artificial. / tillynorwood.com

El otro día, en 'El Hormiguero', se habló de Tilly Norwood, una actriz que no existe, aunque muchos dirían lo contrario. Fue creada por inteligencia artificial y ya ha protagonizado su primera película. Ahora, según se comenta, está a punto de dar el salto a la televisión. Se pongan como se pongan los sindicatos del cine -que en Estados Unidos son especialmente poderosos-, el aterrizaje de personajes generados por IA en el séptimo arte es inevitable. Nos guste o no, ese es el futuro que se nos viene encima.

Los sindicatos de actores, como el poderoso SAG-AFTRA estadounidense, llevan meses protestando. Consideran que estos "actores sintéticos" suponen una amenaza directa para miles de profesionales. Y no les falta razón. Si un productor puede crear un personaje fotorrealista que nunca se queja, nunca envejece, no pide vacaciones ni honorarios millonarios, ¿por qué seguir contratando a intérpretes humanos? Sin embargo, como casi todo en la historia de la tecnología, lo que a corto plazo parece una sustitución, a largo plazo puede convertirse en una revalorización.

Porque cuando todo puede ser simulado, lo auténtico adquiere un valor incalculable. Es posible que estas actrices artificiales quiten puestos de trabajo, sí, pero también pondrán en valor el hecho de ser humano. Ya hemos visto que al espectador le puede gustar un personaje generado por ordenador -desde los dibujos animados hasta las recreaciones digitales de actores fallecidos-, pero hay algo que una máquina no puede replicar del todo: la imperfección humana.

Los grandes del cine, como Meryl Streep, Robert De Niro, Anthony Hopkins o Cate Blanchett, nos recuerdan con cada interpretación que la emoción real no se programa. No hay algoritmo capaz de reproducir una mirada que nace del dolor, del amor o del miedo genuino. Esa autenticidad -esa vibración irrepetible que transmite un actor cuando siente de verdad- seguirá siendo insustituible, por mucho que las máquinas aprendan a imitarla.

Mientras tanto, fuera de Hollywood, la inteligencia artificial también está creando otro tipo de ficción: las ‘fake news’ visuales. En redes sociales, cada día circulan vídeos con escenas imposibles. Un niño que va a ser atacado por un león y es salvado por un gato heroico. Una casa que se derrumba por un acantilado justo cuando una pareja sale ilesa. Una bañista que sonríe a la cámara mientras un tiburón enfurecido se aproxima. Son secuencias impactantes, diseñadas para emocionar y viralizar, pero completamente falsas.

Y, sin embargo, la mayoría de los usuarios las comparten como si fueran reales. Ahí radica el verdadero peligro. Ya no se trata solo de crear actrices digitales para el cine, sino de fabricar realidades alternativas que se confunden con la verdad. En un mundo saturado de imágenes, distinguir lo verdadero de lo artificial se ha convertido en una tarea casi imposible.

Por eso resulta incomprensible que no se obligue a incorporar una marca de agua visible en cada vídeo o imagen generada por IA. Una señal simple -como un sello que diga «AI Generated»- bastaría para que cualquier persona supiera, sin lugar a dudas, que está viendo una recreación. Pero esa medida tan básica aún no es obligatoria, ni siquiera en Europa, donde tanto se presume de legislación avanzada en materia tecnológica.

La Unión Europea aprobó recientemente su Ley de Inteligencia Artificial, con la intención de liderar el marco regulatorio mundial. Sin embargo, da la sensación de que ha llegado tarde y mal. Ha puesto el foco en limitar los usos empresariales y en clasificar los riesgos de los sistemas de IA, pero ha pasado por alto cuestiones prácticas tan esenciales como la identificación del contenido sintético. En otras palabras: mientras las empresas deben cumplir con formularios interminables para desarrollar herramientas de IA, cualquiera puede subir a TikTok o a Instagram un vídeo falso sin advertir al público de que lo que ve no es real.

La pregunta, entonces, es inevitable: ¿para quién se ha hecho esta ley? ¿Para proteger a los ciudadanos o para frenar el desarrollo de quienes intentan innovar desde Europa?

La historia demuestra que intentar detener el avance tecnológico nunca ha funcionado. Lo inteligente sería acompañarlo con reglas claras, aplicables y comprensibles para todos. Si no se exige transparencia en el uso de la IA, pronto no sabremos si la noticia que vemos, la actriz que admiramos o la sonrisa que nos emociona son reales o simplemente líneas de código bien entrenadas.

Tilly Norwood es el espejo de lo que está por venir. Un recordatorio de que el futuro del arte, la información y la verdad misma dependerá de nuestra capacidad para distinguir entre lo humano y lo artificial. Porque el problema no es que las máquinas actúen como personas; el problema es que las personas empiecen a creer que ya no se nota la diferencia.

Suscríbete para seguir leyendo

Tracking Pixel Contents