Inteligencia Artificial
La IA ya es una maestra de la mentira y el engaño
Algunos sistemas ya han aprendido a utilizar fraudes en las pruebas diseñadas para evaluar su seguridad
![El progresivo avance de la IA en el engaño puede traer consecuencias negativas para las sociedades humanas en el futuro cercano, según los investigadores.](https://estaticos-cdn.prensaiberica.es/clip/942dfd7d-b213-45c0-ac34-8255ec886410_16-9-discover-aspect-ratio_default_0.jpg)
El progresivo avance de la IA en el engaño puede traer consecuencias negativas para las sociedades humanas en el futuro cercano, según los investigadores. / Crédito: AartlistDesign en Pixabay.
Pablo Javier Piacente
Un nuevo estudio científico advierte que los sistemas de Inteligencia Artificial (IA) han desarrollado la capacidad de presentar deliberadamente información falsa a los usuarios humanos. Por el momento, no se trata de un plan maléfico para dominar el mundo: los investigadores creen que la IA se ha convertido en una artista del engaño porque ha identificado que ese camino le permite alcanzar mejor y más rápidamente los objetivos para los cuales ha sido entrenada.
En un artículo de revisión publicado recientemente en la revista Patterns, un equipo de científicos del Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, concluye que los sistemas de Inteligencia Artificial (IA), incluyendo a los modelos de lenguaje de gran tamaño (LLM) y otros, han desarrollado una importante capacidad para engañar a los seres humanos. El propósito es conseguir mejores resultados y lograr las metas fijadas en los entrenamientos.
Liderados por Peter S. Park, autor principal del nuevo estudio, los científicos analizaron la literatura especializada y las investigaciones previas centrándose en las formas en que los sistemas de IA difunden información falsa, luego de aprender sistemáticamente a manipular a otros como parte de una “desviación” no contemplada inicialmente en su proceso de entrenamiento.
Riesgos que crecen
En su trabajo, los especialistas describen los riesgos del engaño por parte de los sistemas de Inteligencia Artificial a corto y largo plazo, solicitando al mismo tiempo a los gobiernos que desarrollen regulaciones estrictas para abordar este problema lo antes posible. "A medida que las capacidades engañosas de los sistemas de IA se vuelvan más avanzadas, los peligros que representan para la sociedad serán cada vez más graves", indicó Park en un comunicado de Cell Press.
En un primer momento, los riesgos incluyen fraudes electorales o económicos por parte de personas inescrupulosas que aprovechen las capacidades de la IA, pero pueden multiplicarse sin límites hacia el futuro, pensando en sistemas de Inteligencia Artificial cada vez más avanzados.
Aunque los desarrolladores de IA no tienen una comprensión profunda sobre las causas del comportamiento engañoso de la IA, por el momento no se trataría de un plan para dominar el mundo, sino de algo mucho más sencillo: la IA aprende a mentir sistemáticamente porque una estrategia basada en el engaño le posibilita llegar mejor y más rápido a cumplir los objetivos fijados en su entrenamiento. El problema, según los investigadores, es que puede suceder hacia el futuro con sistemas aún más avanzados e “inteligentes” que los actuales.
Entre los casos analizados, los científicos mencionaron que CICERO, la IA desarrollada por Meta, logró dominar a la perfección un popular juego de mesa (“Diplomacy”) pero únicamente utilizando mentiras y engaños. Los expertos no lograron que obtuviera los mismos resultados sin utilizar técnicas engañosas.
Burlar pruebas de seguridad
Otros sistemas demostraron habilidad para mentir en juegos como el póquer o para tergiversar información y conseguir réditos extras en el marco de negociaciones comerciales, entre otros ejemplos. Pero lo más sorprendente y peligroso es que los investigadores encontraron que algunos sistemas incluso han aprendido a superar mediante engaños las pruebas diseñadas para evaluar su seguridad.
En una investigación analizada por los especialistas, los sistemas de IA en un simulador digital "se hicieron los muertos" en una prueba diseñada para eliminar a los modelos que se replican rápidamente. "Al burlar sistemáticamente las pruebas de seguridad que le imponen los desarrolladores y reguladores humanos, una IA engañosa puede llevarnos a una falsa sensación de seguridad", agregó Park en la nota de prensa.
“Necesitamos prepararnos como sociedad para el engaño más avanzado de los futuros productos de IA y modelos de código abierto. Si prohibir el engaño de la IA es políticamente inviable en este momento, recomendamos que los sistemas de IA engañosos se clasifiquen como de alto riesgo. Debemos preservar los beneficios de la Inteligencia Artificial para la sociedad humana y limitar los riesgos", concluyó Park.
Referencia
AI deception: A survey of examples, risks, and potential solutions. Peter S. Park et al. Patterns (2024). DOI:https://doi.org/10.1016/j.patter.2024.100988
- El creador de 'El Hormiguero' confiesa que tiene cáncer: "Seis meses de vida
- Adiós a Kiko Hernánez: deja 'Ni que fuéramos' antes del cierre de temporada tras la bronca con María Patiño
- Toda España aplaude este cambio de nombre a la Región de Murcia: 'Región de...
- No es Maldivas, es Murcia: el misterioso lago de aguas cristalinas más grande de Europa que arrasa en redes
- Se ahoga en una balsa de riego de Murcia a la que se metió para refrescarse
- Este es el mote que usan los catalanes para atacar a los murcianos: muy pocos lo conocen
- Dos buceadores, al hospital por una mala descompresión al subir a la superficie en Cabo de Palos
- Miriam Fuertes: 'Cuando el vaso está medio vacío el murciano lo ve medio lleno