Pentagone contre Anthropic : une bataille sur les lignes rouges de l'IA
Le ministère américain de la Défense menace de désigner Anthropic comme un "risque pour la chaîne d'approvisionnement" après que l'entreprise d'IA a refusé d'autoriser l'utilisation de son modèle Claude pour la surveillance de masse et les armes entièrement autonomes, soulevant des questions urgentes sur la gouvernance de l'IA militaire.
Une confrontation sur les limites de l'intelligence artificielle
Le ministère de la Défense des États-Unis menace de rompre ses liens avec Anthropic – et potentiellement de la blacklister de l'ensemble de l'écosystème des sous-traitants de la défense – après des mois de négociations infructueuses sur la manière dont le modèle d'IA Claude de l'entreprise peut être utilisé par l'armée américaine. Le différend, qui a atteint son point culminant à la mi-février 2026, a mis en évidence une tension fondamentale entre la culture de la Silicon Valley, axée sur la sécurité de l'IA, et la demande de Washington d'un accès illimité à de puissants outils d'IA.
Deux lignes qu'Anthropic ne franchira pas
Au cœur du conflit se trouvent deux limites strictes qu'Anthropic a fixées concernant l'utilisation de Claude : la surveillance de masse des citoyens américains et les systèmes d'armes entièrement autonomes – c'est-à-dire les armes capables de sélectionner et d'engager des cibles sans intervention humaine dans la boucle de décision. Anthropic, fondée sur le principe de la construction d'une IA sûre et fiable, affirme que ces restrictions sont non négociables.
La position du Pentagone est tout aussi ferme. Les responsables de la défense souhaitent que les fournisseurs d'IA mettent leurs outils à disposition pour "toutes les fins licites" – un cadre large qui annulerait effectivement les garde-fous imposés par l'entreprise. Selon un article d'Axios, de hauts responsables militaires affirment que les restrictions d'Anthropic créent des zones grises impraticables et entravent la flexibilité opérationnelle.
Le déclencheur Maduro
Les tensions se sont fortement accrues lorsqu'Anthropic a demandé si Claude avait été utilisé dans l'opération militaire américaine qui a conduit à la capture du président vénézuélien Nicolás Maduro. La question elle-même a alarmé les responsables du Pentagone, signalant qu'Anthropic pourrait désapprouver la manière dont sa technologie était déployée. Claude aurait été déployé grâce au partenariat de l'entreprise avec la société d'analyse de données Palantir, qui fournit l'infrastructure cloud sécurisée permettant l'accès militaire au modèle.
L'épisode a révélé un problème plus profond : Claude est déjà intégré dans des environnements militaires classifiés – dans certains environnements sécurisés, c'est le seul modèle d'IA disponible – mais Anthropic et le ministère de la Défense n'ont jamais conclu d'accord définitif sur les règles du jeu.
L'option nucléaire : risque pour la chaîne d'approvisionnement
Le secrétaire à la Défense, Pete Hegseth, serait sur le point de désigner Anthropic comme un "risque pour la chaîne d'approvisionnement" officiel. Cette étiquette entraîne de graves conséquences : elle ne mettrait pas seulement fin au contrat direct d'Anthropic avec le Pentagone – évalué à 200 millions de dollars au maximum – mais exigerait également que chaque entreprise faisant affaire avec l'armée certifie qu'elle n'utilise pas Claude dans aucun flux de travail. Étant donné qu'Anthropic affirme que huit des dix plus grandes entreprises américaines sont clientes, l'effet de cascade pourrait être énorme.
Le contrat de 200 millions de dollars représente une fraction modeste du chiffre d'affaires annuel déclaré d'Anthropic, qui s'élève à 14 milliards de dollars, ce qui confère à l'entreprise une certaine protection financière. Mais une mise à l'index officielle pourrait avoir des conséquences considérables en termes de réputation et de commerce, en particulier au moment où Anthropic se positionne pour une éventuelle introduction en bourse.
Un précédent pour l'ensemble du secteur
La confrontation ne se limite pas à Anthropic. Le Pentagone négocie simultanément des conditions similaires de "toutes les fins licites" avec OpenAI, Google et xAI d'Elon Musk. La différence est que ces entreprises se sont montrées plus disposées à satisfaire les demandes de l'armée, laissant Anthropic de plus en plus isolé dans son refus.
Comme l'a rapporté Fox News, l'examen du Pentagone marque un changement plus large dans la manière dont l'administration Trump aborde l'acquisition de technologies de défense : la conformité, et non la prudence, est la posture attendue.
La question plus vaste
Le différend cristallise une question que l'industrie de l'IA contourne depuis des années : qui, en fin de compte, régit la manière dont les outils d'IA transformateurs sont utilisés ? Les entreprises privées doivent-elles conserver le droit de restreindre leur propre technologie, même lorsque les gouvernements sont les clients ? Ou la sécurité nationale prime-t-elle sur les cadres éthiques des entreprises ?
Anthropic insiste sur le fait que ses limites sont une caractéristique, et non un défaut – une protection nécessaire contre une utilisation abusive catastrophique. Le Pentagone les considère de plus en plus comme un obstacle. La manière dont cette confrontation se résoudra établira un précédent non seulement pour l'acquisition d'IA de défense aux États-Unis, mais aussi pour les normes mondiales régissant l'IA dans la guerre.