Dudas sobre su ética y efectividad

Así será la guerra del futuro: la era de los “robots asesinos” se ensaya en Ucrania

Mientras el Ejército ucraniano prueba métodos de guerra con aeronaves no tripuladas, organizaciones de Derechos Humanos y gobiernos piden regular su uso

Un soldado ucraniano carga con un dron de fabricación nacional

Un soldado ucraniano carga con un dron de fabricación nacional / KATERYNA KLOCHKO

Mario Saavedra

Mario Saavedra

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La guerra Rusia contra Ucrania está siendo en parte una guerra de drones. Miles de aeronaves no tripuladas que se usan para vigilar al enemigo y para atacarlo. Pero ambos ejércitos evolucionan, y emplean sistemas cada vez más eficaces para interferir la señal entre el dron y el piloto que lo controla desde la distancia. Se llama técnicamente jamming. Además, se están dando cuenta de que las ondas emitidas pueden desvelar la ubicación del soldado-piloto.

La solución está llegando de la mano de la Inteligencia Artificial (IA). Un ejército de ingenieros ucranianos está integrando software avanzado, sensores y armas en drones o en ametralladoras. El objetivo es que sean capaces de apuntar a un enemigo, perseguirlo y destruirlo, ya sea un tanque o un soldado. 

En un artículo titulado “La IA marca el camino de una era de robots asesinos”, el diario The New York Times contaba la semana pasada media docena de ejemplos de armas autónomas o semi-autónomas asesinas que desarrollan ingenieros en una Ucrania convertida en una suerte de “Silicon Valley” de drones kamikazes.

Drones asesinos automatizados

En uno de los casos, un grupo de ingenieros muestran cómo un dron marca como objetivo a uno de los miembros del equipo, que se sube a una moto e intenta escapar de la aeronave. Esta le persigue a toda velocidad usando sensores e información que recoge del entorno y que procesa Con software avanzado. Finalmente, alcanza su objetivo. Según el artículo, hay vídeos verificados de su uso en el campo de batalla y confirmación de fuentes oficiales. 

Lviv (Ukraine), 22/03/2024.-Drones de Visión en primera Persona listos para ser enviados al frente.

Lviv (Ukraine), 22/03/2024.-Drones de Visión en primera Persona listos para ser enviados al frente. / MYKOLA TYS

En otro de los ejemplos, un grupo de ingenieros desarrolla una ametralladora que utiliza “una gran cantidad de Inteligencia Artificial” para fijar el objetivo en tiempo real. El disparo lo realiza desde la distancia un soldado. 

¿Estamos en los albores de una era en la que la guerra la llevarán a cabo distintos tipos de “robots asesinos”, sistemas armamentísticos que usan Inteligencia Artificial para identificar, seleccionar y matar a objetivos humanos o militares sin intervención humana? 

“Hasta ahora, lo que se veía sobre todo son drones que se mueven por el campo de batalla, emiten su posición con una cámara y el soldado los controla de forma remota. Pero todo se produce en un espacio radioeléctrico que puede ser interferido”, explica Jesús Manuel Pérez Triana, analista de seguridad y defensa. “El siguiente paso es que no sea necesario mandar vídeo para que el piloto lo dirija, sino que pueda detectar automáticamente un tanque ruso, digamos un T-90, se lance y lo destruya”

Tipos de drones automatizados en Ucrania

Juan Luis Chulilla es el CEO de Red Team Shield, una empresa que da servicios de consultoría sobre cómo defender instalaciones de ataques con drones. Asegura que, desde hace aproximadamente un año, en Ucrania ya se están produciendo ataques con drones que fijan su objetivo y lo persiguen utilizando sistemas de visión por ordenador e Inteligencia Artificial para mantenerse en rumbo contra un objetivo. 

Al guiado autónomo hay que sumarle la navegación autónoma. “En Ucrania, buena parte del espacio aéreo no tiene GPS, así que había que navegar el dron a mano. Un operador lo elevaba unos metros, otro le iba dando puntos de interés sobre el terreno. Ahora hay sistemas que, usando una cámara cenital, toman una imagen del suelo y la comparan con el mapa que tienen cargado”, explica. Es como el sistema TERCOM de guiado de los misiles Tomahawk. Pero, en lugar de costar medio millón de dólares, sale por 200, apunta. 

Un militar ucraniano de la Brigada de Defensa Territorial lleva un dron de fabricación ucraniana en un campo cerca de la línea del frente en dirección a Zaporizhzhia, Ucrania,.

Un militar ucraniano de la Brigada de Defensa Territorial lleva un dron de fabricación ucraniana en un campo cerca de la línea del frente en dirección a Zaporizhzhia, Ucrania,. / KATERYNA KLOCHKO

También se utilizan mecanismos de autodiscriminación o autoinferencia. “El sistema detecta en la pantalla algo, por ejemplo un carro de combate, y avisa al operador, que siempre toma la decisión de ir a por él”, dice el experto. “Militarmente, un sistema de guía autónoma contra un blanco humano carece de sentido, especialmente para la OTAN. Puedes renunciar al control, pero no a la responsabilidad. Si el sistema neutraliza a un ser humano, ¿de quién es la responsabilidad? Del robot no: del militar al mando”. 

Impacto táctico de los drones en Ucrania

Paul Lushenko es teniente coronel del Ejército de Estados Unidos y autor de La Legitimidad de la Guerra de Drones. Se muestra crítico con la idea de que los drones autónomos hayan supuesto un cambio sustancial en la guerra. “Los drones semi-autónomos tienen impactos tácticos, pero son estratégicamente irrelevantes”, asegura el también profesor Relaciones Internacionales de la Universidad de Cornell.

El especialista es muy crítico con la ola que ensalza la importancia de estos sistemas autónomos en la guerra. “No está claro tampoco que estemos viviendo una carrera armamentística de Inteligencia Artificial. Creo que estamos poniendo el carro antes de los bueyes. No comprendemos la implicación del uso de IA en el tipo de guerra que vendrá, ni si los soldados confiarán en tener a su lado capacidades militares reforzadas por Inteligencia Artificial”, asegura. “Mientras ensalzamos Ucrania como un nuevo Silicon Valley, hay empresarios ganando mucho dinero estudiando cómo matar gente en una confrontación mayor, y eso es moralmente preocupante, o debería serlo”, opina Lushenko, que propone que pide que se trate “cómo integrar estas capacidades militares que emergen en los arsenales militares de forma legal, moral y ética”. 

Distopía de robots asesinos

En 2017, Stuart Russell, un científico de Inteligencia Artificial de la Universidad de California, Berkeley, estrenó el corto de ficción Slaughterbots, en el que presentaba un mundo distópico de robots asesinos. Era su forma de alertar sobre algo que, cree, puede ocurrir más pronto que tarde. En la película, un empresario tecnológico creaba enjambres de pequeños drones capaces de volar de forma autónoma hasta encontrar y atacar a objetivos humanos. Les atraviesan el cráneo y hacen detonar dentro un explosivo que acaba con su vida al instante. Los dispositivos solo necesitan se programados con el perfil del objetivo a eliminar: nombre, edad, sexo, uniforme, etnia… Al principio los adquiere en masa el Ejército para acabar de forma “limpia” con los combatientes enemigos, pero pronto caen en manos de grupos armados insurgentes y de terroristas. Se usan datos de las redes sociales para determinar la ideología del enemigo. Imposible la disidencia. 

Este futuro distópico preocupa a decenas de organizaciones de derechos humanos (como Human Rights Watch o Amnistía Internacional), gobiernos y organismos como Naciones Unidas. Se ha creado un consorcio internacional Campaña para Detener a los Robots Asesinos. 30 países y organizaciones han pedido un Tratado internacional de cumplimiento obligatorio antes de que esas armas puedan ser desplegadas. En Naciones Unidas se estudia dentro del marco de la Convención sobre Ciertas Armas Convencionales desde 2014. 

“Se trata de una campaña política que trata de frenar un problema que ni siquiera existe”, opina Juan Luis Chulilla. 

Inteligencia Artificial y armas nucleares

 “Es urgente un acuerdo internacional. El uso descontrolado de IA puede llevar a guerras que escapen al control humano”, asegura Paul Scharre, director de estudios del Centro para la Nueva Seguridad Americana, en un artículo de Foreign Policy titulado “La peligrosa mayoría de edad de la guerra con Inteligencia Artificial. Cómo limitar la amenaza de las armas autónomas”. 

Uno de los peligros es la combinación de armas con inteligencia artificial y dispositivos nucleares. En 2022, Estados Unidos y Reino Unido establecieron la política de que siempre habría un humano en la cadena de mando en el uso de armas nucleares. Pero China y Rusia no la tienen. 

El debate no es del todo nuevo. A mediados de los ochenta, la Unión Soviética desarrolló el Sistema Perímetro: una red semiautomática de sensores que, en caso de detectar un ataque nuclear en suelo soviético, dispararían contra Estados Unidos misiles intercontinentales. Habría acción humana: los activaría un soldado solo si la cúpula de poder de Moscú había sido aniquilada en un ataque. En 2018, oficiales rusos aseguraron que sigue activo y actualizado.

Suscríbete para seguir leyendo