Los avances en inteligencia artificial (IA) suscitan asombro, pero también recelo entre quienes piensan que los robots acabarán perjudicando la vida, especialmente humana, en lugar de mejorarla, lo que ha llevado a actores del sector público y privado a buscar un marco ético que dirija el desarrollo de esta tecnología.

El hogar inteligente, los vehículos autónomos, la robotización de los puestos de trabajo son temas centrales en la preocupación por el desarrollo de la IA y la robótica. Un desarrollo que se engloba también en el debate ético y social, y que la propia Unión Europea (UE) reconoce con la celebración, en junio, de una reunión de Alto Nivel sobre Inteligencia Artificial.

Se trata de la novena reunión que celebra la Comisión Europea, una cada año desde 2009 y en torno a un tema de actualidad, como contempla el artículo 17 del Tratado de Lisboa. En esta ocasión, el debate se centró en abordar los desafíos éticos y sociales en torno a la IA, en tanto que el mundo digital "avanza más deprisa que el debate ético sobre lo que puede y debe permitirse online", como señaló el vicepresidente primero Frans Timmermans, responsable de este diálogo.

Aparte de este diálogo, que contó con representantes de organizaciones filosóficas y no confesionales, la UE creó, en abril, una iniciativa europea sobre IA, con el objeto de "incrementar la inversión pública y privada, prepararse para los cambios socioeconómicos y garantizar un marco ético y jurídico adecuado".

Previamente, la preocupación en la UE sobre el desarrollo de la IA llevó a la eurodiputada socialdemócrata Mady Delvaux a presentar un informe como primer paso en la búsqueda de un marco regulatorio para los robots, en torno a la responsabilidad, la seguridad y los cambios en el mercado de trabajo.

Las tres leyes de la robótica

El informe de Delvaux, aprobado en enero de 2017 por la comisión de Asuntos Jurídicos del Parlamento, se centra sobre todo en la necesidad de tener normas comunes para la industria, pero plantea también la preocupación de fondo cuando se habla de inteligencia artificial: la relación de este avance tecnológico con los humanos, sus creadores.

El informe señala que existe una posibilidad de que las IA "puedan sobrepasar la capacidad intelectual humana de una forma que, si no estamos preparados, pueda suponer un reto para la capacidad humana de controlar su propia creación y, en consecuencia, quizá también su capacidad para estar al mando de su propio destino y asegurar la supervivencia de la especie".

La protección del ser humano se ha priorizado en base a unas reglas establecidas en la literatura de ciencia ficción y que se han tomado como base para los desarrollos en robótica desde el siglo XX: las 'Tres leyes de la robótica', que el escritor Isaac Asimov redactó en su relato 'Círculo vicioso' ('Runaround').

Estas leyes establecen que "un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley".

Si bien no se cuestiona la influencia que tienen las leyes de Asimov, existen voces que se plantean su vigencia. Una de ellas es la de Margaret Boden, profesora de ciencia cognitiva de la Universidad de Sussex (Reino Unido) especializada en IA.

Boden defiende que las leyes de Asimov no pueden regular la robótica porque "no es posible determinar qué es el daño", un concepto que "puede tener muchos significados. Lo que una persona considera como daño, otra, no".

La investigadora tampoco cree que puedan existir los robots éticos, en tanto que considera que "no se les puede culpar por lo que hacen", puesto que "la responsabilidad debe recaer siempre en el ser humano".

Protección de los derechos humanos

La coalición The Public Voice ha publicado recientemente un conjunto de directrices universales sobre la inteligencia artificial, respaldado por 50 organizaciones científicas y más de 200 expertos de todo el mundo, con las que esperan "maximizar los beneficios de la IA, minimizar los riesgos y asegurar la protección de los derechos humanos".

En línea con Boden, estas directrices recogen, entre otras propuestas, el derecho a la resolución humana, por el que "todos los individuos tienen derecho a una resolución final hecha por una persona", o la obligación de identificación, por la que "la institución responsable de un sistema de IA debe darse a conocer al público".

Garantizar la seguridad pública recae, según estas directrices, en los responsables del despliegue del sistema de IA así como la implantación de controles de seguridad. También deben garantizar "la precisión, la fiabilidad y la validez" de las decisiones que tome una IA y evitar que reflejen "un sesgo injusto o tomen decisiones discriminatorias inadmisibles".

Las directrices han sido recogidas por el centro de investigación estadounidense EPIC -promotor de The Public Voice- para que sean implementadas por la agencia gubernamental que impulsa la investigación y la educación en Ciencia e Ingeniería, la Fundación Nacional para la Ciencia (NSF).

Compromiso desde la iniciativa privada

Si los organismos públicos trabajan por crear un marco ético para que el desarrollo de la IA y la robótica no vaya en perjuicio de los seres humanos, las empresas desarrolladoras también han establecido sus propias directrices para asegurar un uso de esta tecnología en beneficio de todos.

Google es una de las compañías más avanzadas en este campo. Su IA ya ha demostrado que puede realizar de forma autónoma llamadas a restaurantes o peluquerías con los mismos recursos del habla que usaría un ser humano, hasta el punto de confundirse con uno, lo que ha maravillado y alarmado a partes iguales.

En la compañía entienden que la forma en que se desarrolla y usa una IA "tendrá un impacto significativo en la sociedad en los próximos años" y que, "como líder en IA" la compañía siente "una profunda responsabilidad para hacerlo bien".

El CEO, Sundar Pichai, firmó, el pasado mes de junio, un texto de buenas prácticas en el que explicaba los objetivos que guían a la compañía en su desarrollo de IA: usar esta tecnología para "hacer los productos más útiles", pero también para "ayudar a las personas a abordar problemas urgentes".

Por ejemplo, que la IA sea socialmente beneficiosa y evite la creación o el refuerzo de discriminaciones injustas, y que su desarrollo siga unas medidas de seguridad que garanticen que evitará resultados inintencionados que puedan suponer un riesgo.

Microsoft, otra de las empresas que encabezan los desarrollos en IA, defiende un enfoque que priorice la privacidad de los clientes, que ayude a proteger la información y conceda el control a los mismos. "Nuestros principios se centran en la ética, la rendición de cuentas y un diseño inclusivo" para "lograr un impacto positivo en la sociedad".

La compañía, como expone en el portal de su visión sobre la IA, se guía por un diseño que "ayude a la humanidad y respete la autonomía humana", que "proteja contra el sesgo" y dé "prioridad a preservar las acciones culturales y a fomentar la diversidad". También destaca los valores de la transparencia y la privacidad.

Facebook, por su parte, trabaja en una IA que "ayudará a acercar el mundo", como han señalado fuentes de la empresa a Portaltic. En 2013, creó Facebook Artificial Intelligence Research (FAIR), un programa para el desarrollo de la IA con carácter divulgativo en el que participan empresas como Google, Amazon, IBM y Microsoft, y que ofrece debates, datos y recursos para el público y los medios de comunicación. La compañía muestra así su "voluntad de compartir la investigación y las tecnologías con el resto de la comunidad IA".