Los humanos suelen ser bastante buenos para reconocer cuando se equivocan, pero los sistemas de inteligencia artificial no lo son. Según un nuevo estudio, la IA generalmente sufre de limitaciones inherentes debido a una paradoja matemática centenaria.

Al igual que algunas personas, los sistemas de Inteligencia Artificial (IA) suelen tener un grado de confianza que supera con creces sus capacidades reales. Y como una persona con exceso de confianza, muchos sistemas de IA no saben cuándo están cometiendo errores. A veces es incluso más difícil para un sistema de IA darse cuenta de que está cometiendo un error, que producir un resultado correcto.

Investigadores de la Universidad de Cambridge y de la Universidad de Oslo aseguran que la inestabilidad es el talón de Aquiles de la IA moderna y que una paradoja matemática pone de manifiesto las limitaciones de la IA.

Las redes neuronales, la herramienta de vanguardia en IA, imitan los enlaces entre las neuronas en el cerebro. Sin embargo, estos investigadores consideran que existen problemas donde existen redes neuronales estables y precisas, porque ningún algoritmo puede producir una red con esas características. Solo en casos específicos los algoritmos pueden calcular redes neuronales estables y precisas.

Nueva teoría

Los investigadores proponen una teoría de clasificación que describe cuándo se puede entrenar a las redes neuronales para que proporcionen un sistema de IA confiable bajo ciertas condiciones específicas. Sus resultados se publican en PNAS.

El aprendizaje profundo, la tecnología de inteligencia artificial líder para el reconocimiento de patrones, ha sido objeto de numerosos titulares que no dejan de sorprendernos.

Los ejemplos incluyen el diagnóstico de enfermedades con mayor precisión que los médicos, o la prevención de accidentes de tráfico mediante la conducción autónoma. Sin embargo, muchos sistemas de aprendizaje profundo no son confiables y son fáciles de engañar.

Paradoja matemática

La paradoja identificada por los investigadores, que cuestiona la fiabilidad de la IA, se remonta a dos gigantes matemáticos del siglo XX: Alan Turing y Kurt Gödel.

A principios del siglo XX, los matemáticos intentaron justificar las matemáticas como el último lenguaje coherente de la ciencia. Sin embargo, Turing y Gödel mostraron una paradoja latente en el corazón de las matemáticas: es imposible probar que ciertas afirmaciones matemáticas son verdaderas o falsas, y algunos problemas computacionales no pueden abordarse con algoritmos.

Y, cuando un sistema matemático es lo suficientemente rico para describir la aritmética que aprendemos en la escuela, no puede probar su propia consistencia.

Problema sin resolver

Décadas más tarde, el matemático Steve Smale propuso una lista de 18 problemas matemáticos sin resolver para el siglo XXI. El problema 18 se refería a los límites de la inteligencia, tanto para humanos como para máquinas.

Los investigadores dicen que, debido a esta paradoja, hay casos en los que pueden existir buenas redes neuronales, pero añaden que no se puede construir una IA inherentemente confiable.

La imposibilidad de que una red neuronal compute adecuadamente es cierta independientemente de la cantidad de datos gestione.  No importa a cuántos datos pueda acceder un algoritmo, no producirá la red deseada.

Esto es similar al argumento de Turing: hay problemas computacionales que no pueden resolverse independientemente de la potencia informática y el tiempo de ejecución, dicen los investigadores.

Efecto limitado

Añaden que no toda la IA tiene fallos inherentes, pero que solo es confiable en áreas específicas, utilizando métodos específicos.

“El problema está en las áreas en las que se necesita una garantía, porque muchos sistemas de inteligencia artificial son una caja negra”, explica uno de los autores, Matthew Colbrook, del Departamento de Matemáticas Aplicadas y Física Teórica de la Universidad de Cambridge.

“Es comprensible que en algunas situaciones una IA cometa errores, pero debe ser honesta al respecto. Y eso no es lo que estamos viendo en muchos sistemas: no hay forma de saber cuándo tienen más o menos confianza en una decisión”.

“Actualmente, los sistemas de IA a veces pueden tener un toque de conjetura”, añade otro de los investigadores, Anders Hansen, también de Cambridge.

Limitaciones de enfoque

“Intentas algo, y si no funciona, agregas más cosas, con la esperanza de que funcione. En algún momento, te cansarás de no obtener lo que quieres y probarás un método diferente", añade.

Destaca Hansen que es importante entender las limitaciones de los diferentes enfoques. "Estamos en una etapa en la que los éxitos prácticos de la IA están muy por delante de la teoría y la comprensión. Se necesita un programa para comprender los fundamentos de la computación de IA para cerrar esta brecha", enfatiza.

“Cuando los matemáticos del siglo XX identificaron diferentes paradojas, no dejaron de estudiar matemáticas. Solo tenían que encontrar nuevos caminos, porque entendían las limitaciones”, comenta Colbrook.

“Para la IA, puede ser el momento de cambiar caminos o de desarrollar otros nuevos para construir sistemas que puedan resolver problemas de una manera confiable y transparente, mientras se comprenden sus limitaciones”, añade.

Siguientes pasos

La siguiente etapa para los investigadores es combinar la teoría de la aproximación, el análisis numérico y los fundamentos de los cálculos, para determinar qué redes neuronales pueden calcularse mediante algoritmos y cuáles pueden hacerse estables y confiables.

Así como las paradojas sobre las limitaciones de las matemáticas y las computadoras identificadas por Gödel y Turing, condujeron a elaborar ricas teorías que describen tanto las limitaciones como las posibilidades de las matemáticas y los cálculos, tal vez una teoría similar pueda florecer en la IA, concluyen los investigadores.

Referencia

The difficulty of computing stable and accurate neural networks: On the barriers of deep learning and Smale’s 18th problem. Matthew J. Colbrook et al. PNAS, March 16, 2022; 119(12)e2107151119. DOI:https://doi.org/10.1073/pnas.2107151119