Tecnología

Trump veta a Anthropic y OpenAI se apodera de un acuerdo con el Pentágono

La administración Trump prohibió el uso federal de Anthropic después de que la empresa de IA se negara a eliminar las restricciones de seguridad en su modelo Claude para aplicaciones militares, lo que llevó a su rival OpenAI a asegurar rápidamente un contrato con el Pentágono, y a una feroz reacción de la industria.

R
Redakcia
Share
Trump veta a Anthropic y OpenAI se apodera de un acuerdo con el Pentágono

Un enfrentamiento de alto riesgo sobre el papel de la IA en la guerra

En una medida sin precedentes que sacudió a la industria tecnológica, el presidente Donald Trump ordenó a todas las agencias federales que cesaran inmediatamente el uso de la tecnología de IA de Anthropic, después de que la empresa se negara a eliminar las medidas de seguridad de su modelo Claude para su uso por el Pentágono. La directiva, emitida el viernes por la noche, dio a las agencias seis meses para liquidar los contratos existentes, y envió una advertencia rápida y brutal a Silicon Valley: cumplan con las exigencias del gobierno o afronten las consecuencias.

La disputa: armas, vigilancia y líneas rojas

El enfrentamiento se había estado gestando durante meses. El Pentágono exigió que Anthropic concediera acceso irrestricto a Claude para cualquier "propósito legal", una formulación que, según la empresa, habría incluido la vigilancia masiva nacional de ciudadanos estadounidenses y sistemas de armas totalmente autónomos que operaran sin supervisión humana.

El CEO de Anthropic, Dario Amodei, se negó. En un comunicado, argumentó que esos usos están "simplemente fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable". El Pentágono fijó un plazo hasta las 5:01 p.m. del viernes; Amodei no cedió.

El Secretario de Defensa, Pete Hegseth, respondió designando a Anthropic como un "riesgo para la cadena de suministro para la seguridad nacional", una etiqueta típicamente reservada para adversarios extranjeros como las empresas de telecomunicaciones chinas. La designación prohíbe a cualquier contratista o proveedor militar hacer negocios con la empresa. Trump se sumó públicamente, llamando a Anthropic "lunáticos de izquierda" que cometieron un "ERROR DESASTROSO".

OpenAI entra en escena y se enfrenta a su propia reacción

A las pocas horas de la prohibición, el CEO de OpenAI, Sam Altman, anunció que su empresa había conseguido un acuerdo con el Pentágono para desplegar modelos de IA en redes militares clasificadas. Altman insistió en que el acuerdo incluía las mismas prohibiciones básicas por las que Anthropic había luchado (no a la vigilancia masiva nacional, no a las armas autónomas), logradas a través de lo que describió como un "enfoque más amplio y multicapa".

La imagen era perjudicial. Una carta abierta firmada por líderes tecnológicos, incluyendo a 11 empleados de OpenAI, advertía que "castigar a una empresa estadounidense por negarse a aceptar cambios en un contrato envía un mensaje claro a todas las empresas tecnológicas de Estados Unidos: acepten los términos que exija el gobierno o afronten represalias". El propio ex asesor de política de IA de Trump calificó la medida contra Anthropic como "simplemente un intento de asesinato corporativo".

El propio Altman admitió más tarde en las redes sociales que el anuncio del acuerdo "parecía oportunista y descuidado" y se comprometió a modificar el lenguaje del contrato para aclarar los principios de la empresa en materia de vigilancia.

Un veredicto del mercado

Los mercados y los usuarios emitieron su propio veredicto: Claude, el modelo estrella de Anthropic, se disparó hasta convertirse en la aplicación gratuita más descargada en la App Store de Apple en los días siguientes a la prohibición, una sorprendente expresión de simpatía pública por la postura de la empresa. Anthropic amenazó con emprender acciones legales contra la designación de seguridad nacional, calificando las acciones de la administración como "de represalia y punitivas".

El senador demócrata Mark Warner calificó el episodio de "intimidación" y cuestionó si el encuadre de seguridad nacional estaba impulsado por un análisis genuino o por pura política.

Lo que significa para la IA y el gobierno

El enfrentamiento marca la confrontación más dramática hasta el momento entre el gobierno federal y una empresa de IA sobre la ética del despliegue militar de la IA. La cuestión central (si las empresas privadas pueden mantener los límites de seguridad al contratar con el Estado) no se resolverá con una sola orden ejecutiva.

A medida que las armas autónomas y la vigilancia asistida por IA se vuelven cada vez más centrales en la guerra del siglo XXI, la disputa de Anthropic establece un precedente que toda empresa de IA con ambiciones gubernamentales tendrá que sortear: ¿cuántos de sus principios puede permitirse mantener?

Este artículo también está disponible en otros idiomas:

Artículos relacionados