Tecnología

¿Qué son las armas autónomas letales y cómo funcionan?

Las armas autónomas letales, a veces llamadas 'robots asesinos', pueden seleccionar y atacar objetivos sin que un humano apriete el gatillo. Aquí explicamos cómo funcionan, dónde se están desplegando y por qué el mundo se apresura a regularlas.

R
Redakcia
Share
¿Qué son las armas autónomas letales y cómo funcionan?

El arma que elige su propio objetivo

Un soldado dispara un misil pulsando un botón. Un piloto de drones selecciona un objetivo en una pantalla. En ambos casos, un humano toma la decisión letal final. Pero una nueva clase de arma está cambiando por completo esa ecuación. Los sistemas de armas autónomas letales (SAAL), a menudo denominados "robots asesinos" en el debate público, pueden identificar, seleccionar y atacar objetivos por sí solos, una vez activados, sin intervención humana en el momento de matar.

A medida que los ejércitos de todo el mundo aceleran la inversión en la guerra impulsada por la IA, comprender cómo funcionan estos sistemas, y por qué alarman a abogados internacionales, expertos en ética y organizaciones humanitarias, nunca ha sido tan importante.

Cómo funcionan realmente las armas autónomas

El mecanismo central es sencillo en concepto, aunque profundamente complejo en la práctica. Un arma autónoma está preprogramada con un perfil de objetivo: un conjunto de características que el sistema utiliza para identificar a qué debe atacar. Esto podría ser la firma de radar de un misil que se aproxima, la firma de calor del motor de un tanque o, en sistemas más avanzados, el patrón de movimiento de un combatiente humano.

Una vez desplegada, los sensores integrados del arma (cámaras, radar, detectores de infrarrojos, sensores acústicos) escanean continuamente el entorno. Cuando la IA del sistema juzga que algo coincide con el perfil del objetivo, desencadena un ataque sin ninguna otra intervención humana.

Muchos sistemas utilizan el aprendizaje automático, lo que significa que su comportamiento se deriva de datos de entrenamiento en lugar de reglas explícitas. Como señala el Comité Internacional de la Cruz Roja (CICR), esto puede crear un efecto de "caja negra": incluso los ingenieros pueden no ser capaces de predecir o explicar completamente cada decisión de selección de objetivos que toma el sistema.

Un espectro de autonomía

No todas las armas autónomas son igualmente autónomas. Los expertos suelen describir un espectro:

  • Humano en el bucle: Un humano aprueba cada ataque individual. El arma está automatizada, pero no es autónoma.
  • Humano en la supervisión: El sistema actúa de forma autónoma, pero un humano puede anularlo dentro de un estrecho margen de tiempo, algo común en la defensa antimisiles.
  • Humano fuera del bucle: El arma opera de forma totalmente independiente, sin ninguna oportunidad práctica de intervención humana una vez lanzada.

La primera categoría incluye la mayoría de los drones armados en servicio hoy en día. La segunda incluye sistemas como el Phalanx CIWS de la Marina de los EE. UU., un cañón guiado por radar que ha interceptado de forma autónoma misiles que se aproximan desde la década de 1970. La tercera, los sistemas letales totalmente autónomos que atacan a personas, es donde se están trazando las líneas legales y éticas.

Ya en uso

Contrariamente a lo que muchos suponen, estas armas no son puramente teóricas. En 2020, un dron Kargu-2 fabricado por la empresa turca STM supuestamente persiguió y atacó a un objetivo humano en Libia, lo que un panel del Consejo de Seguridad de la ONU describió como posiblemente el primer ataque letal de un arma autónoma contra humanos. En 2021, Israel desplegó enjambres de drones guiados por IA en operaciones de combate en Gaza.

Múltiples naciones, incluidos Estados Unidos, China, Rusia, Corea del Sur e Israel, están desarrollando y desplegando activamente sistemas con diversos grados de capacidad de selección de objetivos autónoma, según el Instituto Freeman Spogli de Estudios Internacionales de Stanford.

El principal problema legal y ético

El derecho internacional humanitario exige que los combatientes distingan entre soldados y civiles, evalúen la proporcionalidad y tomen precauciones antes de utilizar la fuerza letal. El CICR argumenta que solo los humanos pueden tomar estas decisiones complejas y sensibles al contexto. Un sistema de aprendizaje automático que confunde a un agricultor que lleva una azada con un soldado que lleva un rifle no puede ser considerado legal o moralmente responsable, y sus víctimas no tienen ningún recurso.

"Las máquinas no pueden ejercer los juicios complejos y exclusivamente humanos que se requieren en los campos de batalla", afirma el CICR en su posición sobre las armas autónomas. Los críticos añaden que el despliegue de armas que operan sin un control humano significativo podría reducir el umbral para iniciar guerras, ya que ningún soldado corre peligro en el bando que las despliega.

La presión para establecer normas globales

En diciembre de 2024, la Asamblea General de la ONU adoptó una resolución sobre armas autónomas letales con 166 votos a favor y solo la oposición de Bielorrusia, Corea del Norte y Rusia. Más de 120 países apoyan ahora la negociación de un tratado jurídicamente vinculante. El Secretario General de la ONU ha pedido que se concluya una nueva ley internacional para 2026.

Human Rights Watch y la coalición Stop Killer Robots abogan por un tratado que prohíba las armas autónomas diseñadas para atacar a personas e imponga estrictos requisitos de control humano a todas las demás. Sin embargo, hasta ahora no existe ningún acuerdo vinculante, y la tecnología avanza más rápido que la diplomacia.

Por qué es importante

El debate sobre las armas autónomas no es abstracto. A medida que mejoran las capacidades de la IA y los presupuestos militares invierten recursos en sistemas no tripulados, la cuestión de quién, o qué, toma la decisión de matar se está convirtiendo en una de las cuestiones éticas definitorias de la guerra moderna. Si el derecho internacional puede seguir el ritmo de la tecnología determinará la naturaleza de los conflictos armados durante décadas.

Este artículo también está disponible en otros idiomas:

Artículos relacionados