Tecnología

Pentágono contra Anthropic: Una batalla por las líneas rojas de la IA

El Departamento de Defensa de EE. UU. amenaza con designar a Anthropic como un 'riesgo para la cadena de suministro' después de que la empresa de IA se negara a permitir que su modelo Claude se utilizara para la vigilancia masiva y las armas totalmente autónomas, lo que plantea preguntas urgentes sobre quién gobierna la IA militar.

R
Redakcia
Share
Pentágono contra Anthropic: Una batalla por las líneas rojas de la IA

Un enfrentamiento por los límites de la Inteligencia Artificial

El Departamento de Defensa de los Estados Unidos amenaza con romper lazos con Anthropic —y potencialmente incluirla en la lista negra de todo el ecosistema de contratistas de defensa— tras meses de negociaciones fallidas sobre cómo el ejército estadounidense puede utilizar el modelo de IA Claude de la empresa. La disputa, que llegó a un punto crítico a mediados de febrero de 2026, ha puesto de manifiesto una tensión fundamental entre la cultura de Silicon Valley, que prioriza la seguridad en la IA, y la exigencia de Washington de tener acceso irrestricto a potentes herramientas de IA.

Dos líneas que Anthropic no cruzará

En el centro del conflicto se encuentran dos límites estrictos que Anthropic ha establecido en torno al uso de Claude: vigilancia masiva de ciudadanos estadounidenses y sistemas de armas totalmente autónomos, es decir, armas capaces de seleccionar y atacar objetivos sin que haya un humano en el circuito de decisión. Anthropic, fundada con la premisa de construir una IA segura y fiable, afirma que estas restricciones son innegociables.

La postura del Pentágono es igualmente firme. Los responsables de Defensa quieren que los proveedores de IA pongan sus herramientas a disposición para "todos los fines legales", un marco amplio que anularía efectivamente las barreras de protección impuestas por la empresa. Según un informe de Axios, altos funcionarios militares argumentan que las restricciones de Anthropic crean zonas grises inviables y dificultan la flexibilidad operativa.

El detonante de Maduro

Las tensiones aumentaron bruscamente cuando Anthropic preguntó si Claude se había utilizado en la operación militar estadounidense que condujo a la captura del presidente venezolano Nicolás Maduro. La propia pregunta alarmó a los funcionarios del Pentágono, señalando que Anthropic podría desaprobar la forma en que se estaba desplegando su tecnología. Según se informa, Claude se había desplegado a través de la asociación de la empresa con la empresa de análisis de datos Palantir, que proporciona la infraestructura segura en la nube que permite el acceso militar al modelo.

El episodio reveló un problema más profundo: Claude ya está integrado en entornos militares clasificados —en algunos entornos seguros, es el único modelo de IA disponible—, pero Anthropic y el Departamento de Defensa nunca habían llegado a un acuerdo definitivo sobre las reglas del juego.

La opción nuclear: Riesgo para la cadena de suministro

Según se informa, el Secretario de Defensa, Pete Hegseth, está a punto de designar a Anthropic como un "riesgo para la cadena de suministro" formal. La etiqueta conlleva graves consecuencias: no sólo pondría fin al contrato directo de Anthropic con el Pentágono —valorado en hasta 200 millones de dólares—, sino que exigiría a todas las empresas que hacen negocios con el ejército que certifiquen que no utilizan Claude en ningún flujo de trabajo. Dado que Anthropic afirma que ocho de las diez mayores empresas de Estados Unidos son clientes, el efecto cascada podría ser enorme.

El contrato de 200 millones de dólares representa una modesta fracción de la tasa de ejecución de ingresos anuales de 14.000 millones de dólares que Anthropic ha declarado, lo que da a la empresa cierta protección financiera. Pero una inclusión formal en la lista negra podría tener consecuencias comerciales y de reputación de gran alcance, sobre todo porque Anthropic se está posicionando para una posible OPV.

Un precedente para toda la industria

El enfrentamiento no se limita a Anthropic. El Pentágono está negociando simultáneamente términos similares de "todos los fines legales" con OpenAI, Google y xAI de Elon Musk. La diferencia es que esas empresas, según se informa, han estado más dispuestas a adaptarse a las exigencias de los militares, lo que deja a Anthropic cada vez más aislada en su negativa.

Como informó Fox News, la revisión del Pentágono marca un cambio más amplio en la forma en que la administración Trump aborda la adquisición de tecnología de defensa: el cumplimiento, no la precaución, es la postura esperada.

La pregunta más importante

La disputa cristaliza una pregunta que la industria de la IA lleva años planteándose: ¿quién gobierna en última instancia cómo se utilizan las herramientas de IA transformadoras? ¿Deben las empresas privadas conservar el derecho a restringir su propia tecnología, incluso cuando los gobiernos son el cliente? ¿O la seguridad nacional prevalece sobre los marcos éticos corporativos?

Anthropic insiste en que sus límites son una característica, no un error, una salvaguarda necesaria contra el uso indebido catastrófico. El Pentágono los ve cada vez más como un obstáculo. La forma en que se resuelva este enfrentamiento sentará un precedente no sólo para la adquisición de IA de defensa en Estados Unidos, sino también para las normas globales que rigen la IA en la guerra.

Este artículo también está disponible en otros idiomas:

Artículos relacionados