Las trébedes

Quién hace la inteligencia artificial

Ilustración de Leonard Beard

Ilustración de Leonard Beard

Carmen Ballesta

Carmen Ballesta

Últimamente hay mucho revuelo en torno al ChatGPT, ese nuevo invento de la inteligencia artificial. Un chat no es sino una conversación, o un contexto digital que permite conversar. El ChatGPT está basado en un modelo de lenguaje desarrollado por la empresa OpenAI. Estas inteligencias artificiales son ‘entrenadas’ con muchos textos, para que puedan hablar, conversar de forma similar a la humana, cosa que al parecer este hace muy bien. 

El asombro de quien lo ha probado es, con mucha probabilidad, inversamente proporcional a su propia inteligencia y nivel de formación. Es decir, a primera vista, el ChatGPT hace muy bien tareas lingüísticas que pueden parecer difíciles: resumir un texto, escribir un artículo, informar sobre un tema. Ahora bien, si se intenta mantener una conversación menos trivial, más crítica, el ChatGPT se lía enseguida y empieza a dar respuestas claramente erróneas. Por no señalar que no tiene ningún empacho en inventarse lo que no ‘sabe’, miente con tranquilidad, pues no tiene a quien rendir cuentas. Por ejemplo, si le preguntas el porqué de su respuesta, contesta que porque tú le preguntaste. Quizá a más de uno se le haya helado la sonrisa al enterarse de que todo lo que escribía queda registrado y sirve para entrenar el chat con el fin de que resulte aún más humano en el futuro.

El desarrollo de la inteligencia artificial no es reciente, hay consenso sobre la fecha inicial de 1950, con la publicación del artículo de Alan Turing que en España se ha titulado ¿Puede pensar una máquina?. Desde el comienzo se han alzado voces pidiendo regulación, y puede que las primeras nacieran más del temor y del inmovilismo que de la razón. En cambio, hoy, tales voces sí deben ser escuchadas y esa reclamación atendida, por difícil que sea, pues constituye un reto para todos los legisladores del mundo. 

Es cierto que la investigación científica por su propia naturaleza rompe barreras, y que un científico puede llegar a estar tan poseído por su fe que personalmente considere las limitaciones impuestas un obstáculo que puede y debe saltarse en pro del conocimiento. Sin embargo, para investigar hace falta dinero y hoy son mayoritariamente las empresas quienes lo aportan en el campo que nos ocupa; siempre hay que seguir esa pista. Los límites y controles no servirán para ese ‘científico loco’, pero sí pueden impedir que los objetivos de estas tecnologías se orienten exclusivamente al beneficio empresarial o del poder. 

Y, más allá de la legislación propiamente dicha, es preciso ir también más allá de las famosas tres leyes asimovianas, o las seis de la UE, que son tan recientes y ya parecen tan ingenuas. En este campo es muy urgente que tanto los Estados, como las empresas, y la sociedad civil tomen conciencia de la necesidad de la Ética. Los estudiantes y profesores de las facultades de Derecho, así como los de las de Filosofía tienen que espabilarse y salir al ruedo tanto de la investigación científica como de la plaza pública y la responsabilidad social. 

La ley no puede poner puertas al campo de la investigación científica y el desarrollo tecnológico, pero sí puede y debe establecer límites y controles de su uso, si acaso se considera deseable mantener la ley como parte esencial del contrato social, es decir de la sociedad en la que queremos vivir. Y porque la ley no es cambiante y la realidad sí, y la casuística es infinita, es necesario que el conocimiento y la reflexión ética estén muy presentes en los equipos de investigación de inteligencia artificial y en las empresas que la implementan en sus productos y servicios (esto es, casi todas ya), al mismo nivel que están las aportaciones de las demás ciencias.

Esto requiere a su vez que los estudiantes (y los profesores) de las Facultades de Filosofía, de Derecho y de humanidades en general dejen de mecerse también en la comodidad de que su tarea no trasciende lo académico (que no son médicos o arquitectos) y en el demasiado frecuente aún y autocomplaciente desprecio de lo tecnológico, desde una supuesta superioridad o independencia de ‘las letras’. Ha llegado la hora del fin de las quejas de quienes se dicen ‘de ciencias’, rechazando la atención a las exigencias ortográficas o sintácticas, y las de quienes se dicen ‘de letras’ y casi se ufanan de ser incapaces de hacer una operación matemática básica.

Ingenieros, matemáticos e informáticos no pueden ser los únicos artífices de la IA. No puede ser su campo exclusivo. En la IA del lenguaje, como el ChatGPT, también trabajan expertos en lenguaje natural, sí. Pues bien, tanto todos ellos como las empresas tendrán que aceptar y tomar en consideración lo que diga la Ética, aunque eso les suponga complejidad añadida a su trabajo o incluso limitaciones a las posibilidades de lo que inventan. En determinados momentos un médico, un profesor o un juez desearían que hubiera algún algoritmo que resolviera sus problemas deontológicos. Creemos que no lo hay y que no es deseable que lo haya, aunque quizá están usándose ya sin que la mayoría tengamos conciencia de ello, como expuso Cathy O’Neil en Armas de destrucción matemática hace nada menos que cinco años ya.

Por tanto, esas ciencias y esos expertos que están hoy desarrollando las llamadas IA tienen que aceptar la intervención en el proceso de otros expertos de corte muy diferente. Es necesario y urgente que aprendan a valorar, unos y otros, las aportaciones que desde su exclusivo punto de vista experto no son valiosas. Porque sí lo son, las unas (humanísticas) tanto como las otras (tecnológicas).

Suscríbete para seguir leyendo