Pentagon gegen Anthropic: Streit um rote Linien bei KI
Das US-Verteidigungsministerium droht, Anthropic als 'Risiko für die Lieferkette' einzustufen, nachdem das KI-Unternehmen sich geweigert hat, sein Claude-Modell für Massenüberwachung und vollautonome Waffen einzusetzen. Dies wirft dringende Fragen darüber auf, wer militärische KI kontrolliert.
Ein Patt um die Grenzen künstlicher Intelligenz
Das US-Verteidigungsministerium droht, die Beziehungen zu Anthropic abzubrechen – und das Unternehmen möglicherweise vom gesamten Ökosystem der Rüstungsunternehmen auszuschließen –, nachdem monatelange Verhandlungen darüber gescheitert sind, wie das Claude-KI-Modell des Unternehmens vom US-Militär eingesetzt werden darf. Der Streit, der Mitte Februar 2026 seinen Höhepunkt erreichte, hat eine grundlegende Spannung zwischen der sicherheitsorientierten KI-Kultur des Silicon Valley und der Forderung Washingtons nach uneingeschränktem Zugang zu leistungsstarken KI-Tools offenbart.
Zwei rote Linien, die Anthropic nicht überschreiten wird
Im Mittelpunkt des Konflikts stehen zwei harte Grenzen, die Anthropic für die Nutzung von Claude gezogen hat: Massenüberwachung amerikanischer Bürger und vollautonome Waffensysteme – d. h. Waffen, die Ziele ohne menschliche Beteiligung auswählen und angreifen können. Anthropic, das mit dem Ziel gegründet wurde, sichere und zuverlässige KI zu entwickeln, erklärt, dass diese Einschränkungen nicht verhandelbar seien.
Die Position des Pentagons ist ebenso unnachgiebig. Verteidigungsbeamte wollen, dass KI-Anbieter ihre Tools für "alle rechtmäßigen Zwecke" zur Verfügung stellen – ein breiter Rahmen, der die von Unternehmen auferlegten Schutzmaßnahmen faktisch außer Kraft setzen würde. Laut einem Bericht von Axios argumentieren hochrangige Militärs, dass die Einschränkungen von Anthropic unpraktikable Grauzonen schaffen und die operative Flexibilität beeinträchtigen.
Der Maduro-Auslöser
Die Spannungen eskalierten, als Anthropic sich erkundigte, ob Claude bei der US-Militäroperation eingesetzt worden war, die zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro führte. Die Frage selbst alarmierte Pentagon-Beamte und signalisierte, dass Anthropic die Art und Weise, wie seine Technologie eingesetzt wurde, missbilligen könnte. Claude war Berichten zufolge im Rahmen der Partnerschaft des Unternehmens mit dem Datenanalyseunternehmen Palantir eingesetzt worden, das die sichere Cloud-Infrastruktur bereitstellt, die den militärischen Zugriff auf das Modell ermöglicht.
Die Episode offenbarte ein tiefer liegendes Problem: Claude ist bereits in klassifizierte militärische Umgebungen eingebettet – in einigen sicheren Umgebungen ist es das einzige verfügbare KI-Modell –, doch Anthropic und das Verteidigungsministerium hatten nie eine endgültige Einigung über die Spielregeln erzielt.
Die nukleare Option: Risiko für die Lieferkette
Verteidigungsminister Pete Hegseth steht Berichten zufolge kurz davor, Anthropic offiziell als "Risiko für die Lieferkette" einzustufen. Das Label hat schwerwiegende Folgen: Es würde nicht nur den direkten Pentagon-Vertrag von Anthropic beenden – der auf bis zu 200 Millionen Dollar geschätzt wird –, sondern würde jedes Unternehmen, das mit dem Militär Geschäfte macht, verpflichten, zu bestätigen, dass es Claude in keinem Workflow einsetzt. Angesichts der Tatsache, dass Anthropic behauptet, acht der zehn größten amerikanischen Unternehmen seien Kunden, könnten die Auswirkungen enorm sein.
Der 200-Millionen-Dollar-Vertrag stellt einen bescheidenen Bruchteil des von Anthropic gemeldeten jährlichen Umsatzes von 14 Milliarden Dollar dar, was dem Unternehmen einen gewissen finanziellen Spielraum verschafft. Eine formelle Blacklisting könnte jedoch weitreichende Auswirkungen auf den Ruf und die kommerziellen Erfolg haben, insbesondere da sich Anthropic für einen potenziellen Börsengang positioniert.
Ein branchenweiter Präzedenzfall
Der Konflikt beschränkt sich nicht auf Anthropic. Das Pentagon verhandelt gleichzeitig über ähnliche "alle rechtmäßigen Zwecke"-Bedingungen mit OpenAI, Google und Elon Musks xAI. Der Unterschied besteht darin, dass diese Unternehmen Berichten zufolge eher bereit waren, den Forderungen des Militärs entgegenzukommen, wodurch Anthropic in seiner Weigerung zunehmend isoliert dasteht.
Wie Fox News berichtete, markiert die Überprüfung des Pentagons eine breitere Verschiebung in der Art und Weise, wie die Trump-Regierung die Beschaffung von Verteidigungstechnologie angeht: Compliance, nicht Vorsicht, ist die erwartete Haltung.
Die größere Frage
Der Streit kristallisiert eine Frage heraus, um die die KI-Industrie seit Jahren kreist: Wer kontrolliert letztendlich, wie transformative KI-Tools eingesetzt werden? Sollten private Unternehmen das Recht behalten, ihre eigene Technologie einzuschränken, auch wenn Regierungen der Kunde sind? Oder hat die nationale Sicherheit Vorrang vor ethischen Rahmenbedingungen von Unternehmen?
Anthropic besteht darauf, dass seine Grenzen ein Feature und kein Bug sind – eine notwendige Schutzmaßnahme gegen katastrophalen Missbrauch. Das Pentagon sieht sie zunehmend als Hindernis. Wie dieser Konflikt gelöst wird, wird einen Präzedenzfall nicht nur für die KI-Beschaffung des US-Verteidigungsministeriums schaffen, sondern auch für die globalen Normen, die KI in der Kriegsführung regeln.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook