Rusia estaría utilizando en Ucrania drones asistidos por Inteligencia Artificial que son completamente autónomos para atacar objetivos a partir de fotos facilitadas por operarios militares, según denuncia el Boletín de Científicos Atómicos.

El Boletín de los Científicos Atómicos denuncia que Rusia puede estar utilizando en Ucrania lo que denomina un robot asesino, algo que diferentes revistas especializadas han constatado a partir de diversas fuentes.

El Boletín se refiere a un nuevo tipo de dron de fabricación rusa que, según el fabricante, puede seleccionar y atacar objetivos a través de coordenadas ingresadas manualmente o de forma autónoma.

Se trata del dron que fue presentado en 2019 en los Emiratos Árabes Unidos, llamado KUB-BLA, especialmente diseñado para destruir objetivos terrestres remotos, y fabricado por el Grupo Kalashnikov de Rusia.

El sistema es capaz de reconocimiento y clasificación en tiempo real de los objetos detectados utilizando inteligencia artificial (IA).

A partir de una foto

Ataca objetivos siguiendo coordenadas introducidas manualmente, o mediante una imagen facilitada por los operarios militares, por ejemplo, de un vehículo blindado.

Según sus fabricantes, su duración de vuelo es de 30 minutos, viaja a 130 kilómetros por hora y su carga útil máxima puede ser de hasta 3 kilogramos.

Según la revista especializada Army Recogition, el dron emplea una munición merodeadora llamada Kub-E, desarrollada por Zala Aero (parte del grupo de empresas Kalashnikov), que habría superado con éxito las primeras pruebas en noviembre de 2021.

En diciembre pasado, la citada revista informó que los suministros del nuevo dron podrían comenzar en 2022, lo que parece ahora confirmado al constatarse su presencia en Ucrania.

La oficina de prensa de la compañía rusa dijo entonces: “Se ha recomendado la entrada en servicio del nuevo dron de ataque. Se espera que los suministros en serie comiencen en 2022”. La invasión de Ucrania se inició el 24 de febrero de ese año.

Ya han llegado al campo de batalla

El Boletín de los Científicos Atómicos destaca al respecto que esta constatación pone de manifiesto que las armas autónomas que utilizan inteligencia artificial ya están operativas para los ejércitos.

Añade que las armas autónomas han generado una gran preocupación mundial, destacando que el 61 por ciento de los encuestados en 26 países manifiestan su oposición al empleo de estas armas en el campo de batalla, según Ipsos, multinacional de investigación de mercados.

Además, miles de investigadores expertos en IA han firmado un compromiso señalando que la decisión de quitarle la vida a un ser humano nunca debe delegarse en una máquina.

Añaden que las armas letales autónomas, que seleccionan y atacan objetivos sin intervención humana, son peligrosamente desestabilizadoras para todos los países y personas, por lo que piden a los gobiernos que regulen su eventual uso militar.

El Boletín destaca que estas preocupaciones están más que justificadas, porque la inteligencia artificial actual es particularmente frágil: puede ser fácilmente engañada o cometer errores.

Posibles errores

Por ejemplo, un solo píxel puede convencer a una inteligencia artificial de que un bombardero furtivo es un perro. Un campo de batalla complejo y dinámico lleno de humo y escombros provoca también que la identificación correcta de objetivos sea aún más difícil.

Esta incertidumbre representa un riesgo tanto para los civiles como para los soldados aliados. Incluso si nadie resulta dañado, los errores pueden simplemente impedir que el sistema logre el objetivo militar.

También destaca el Boletín que las normas internacionales en torno a las armas autónomas son bastante incipientes, y que los países grandes y poderosos, incluido Estados Unidos, se han opuesto a su eventual regulación.

Incluso si hubiera normas ampliamente aceptadas, no está claro en qué medida se podría impedir el despliegue de estas armas inteligencias autónomas, se lamenta el Boletín.

Sin consenso sobre su uso

Hasta ahora no se ha conseguido ningún consenso para su eventual prohibición o regulación, a pesar de que la Cruz Roja plantea la necesidad de eliminarla como opción bélica aceptable.

Aunque KUB-BLA no es la primera arma autónoma basada en IA que se usa en combate, sí es la primera vez que se experimenta en un campo de batalla con este nivel de sofisticación y precisión, aunque Ucrania ha puesto de manifiesto también que no es tan invulnerable y precisa, como aseguraban sus fabricantes.