Technologia

Pentagon kontra Anthropic: walka o granice sztucznej inteligencji

Departament Obrony Stanów Zjednoczonych grozi uznaniem firmy Anthropic za „zagrożenie dla łańcucha dostaw” po tym, jak firma zajmująca się sztuczną inteligencją odmówiła zgody na wykorzystanie swojego modelu Claude do masowej inwigilacji i w pełni autonomicznej broni, co rodzi pilne pytania o to, kto zarządza wojskową sztuczną inteligencją.

R
Redakcia
Share
Pentagon kontra Anthropic: walka o granice sztucznej inteligencji

Patowa sytuacja w sprawie ograniczeń sztucznej inteligencji

Departament Obrony Stanów Zjednoczonych grozi zerwaniem współpracy z firmą Anthropic — i potencjalnym umieszczeniem jej na czarnej liście całego ekosystemu wykonawców kontraktów obronnych — po miesiącach nieudanych negocjacji dotyczących możliwości wykorzystania modelu sztucznej inteligencji Claude przez amerykańskie siły zbrojne. Spór, który osiągnął punkt kulminacyjny w połowie lutego 2026 r., ujawnił fundamentalną sprzeczność między kulturą sztucznej inteligencji w Dolinie Krzemowej, która stawia bezpieczeństwo na pierwszym miejscu, a żądaniem Waszyngtonu dotyczącym nieograniczonego dostępu do potężnych narzędzi sztucznej inteligencji.

Dwie granice, których Anthropic nie przekroczy

U podstaw konfliktu leżą dwa twarde ograniczenia, które firma Anthropic nałożyła na wykorzystanie modelu Claude: masowa inwigilacja obywateli amerykańskich oraz w pełni autonomiczne systemy uzbrojenia, tj. broń zdolna do wybierania i atakowania celów bez udziału człowieka w procesie decyzyjnym. Firma Anthropic, założona w oparciu o założenie tworzenia bezpiecznej i niezawodnej sztucznej inteligencji, twierdzi, że ograniczenia te nie podlegają negocjacjom.

Pentagon ma równie stanowcze stanowisko. Urzędnicy ds. obrony chcą, aby dostawcy sztucznej inteligencji udostępniali swoje narzędzia do „wszystkich zgodnych z prawem celów” — jest to szerokie ramy, które skutecznie unieważniałyby ograniczenia nałożone przez firmy. Według doniesień Axios, wysocy rangą wojskowi twierdzą, że ograniczenia Anthropic tworzą niemożliwe do zastosowania szare strefy i utrudniają elastyczność operacyjną.

Wyzwalacz Maduro

Napięcie gwałtownie wzrosło, gdy firma Anthropic zapytała, czy Claude został wykorzystany w operacji wojskowej USA, która doprowadziła do schwytania prezydenta Wenezueli Nicolása Maduro. Samo pytanie zaniepokoiło przedstawicieli Pentagonu, sygnalizując, że firma Anthropic może nie aprobować sposobu wykorzystania swojej technologii. Claude został podobno wdrożony dzięki partnerstwu firmy z firmą analityczną Palantir, która zapewnia bezpieczną infrastrukturę chmury umożliwiającą wojsku dostęp do modelu.

Incydent ten ujawnił głębszy problem: Claude jest już wbudowany w tajne środowiska wojskowe — w niektórych bezpiecznych środowiskach jest to jedyny dostępny model sztucznej inteligencji — jednak firma Anthropic i Departament Obrony nigdy nie osiągnęły ostatecznego porozumienia w sprawie zasad postępowania.

Opcja nuklearna: ryzyko związane z łańcuchem dostaw

Sekretarz obrony Pete Hegseth jest podobno bliski uznania firmy Anthropic za formalne „zagrożenie dla łańcucha dostaw”. Oznacza to poważne konsekwencje: nie tylko zakończyłoby to bezpośrednią umowę Anthropic z Pentagonem – o wartości do 200 milionów dolarów – ale wymagałoby od każdej firmy prowadzącej działalność z wojskiem potwierdzenia, że nie wykorzystuje Claude'a w żadnym procesie roboczym. Biorąc pod uwagę, że Anthropic twierdzi, że ośmiu z dziesięciu największych amerykańskich firm jest jego klientami, efekt kaskadowy mógłby być ogromny.

Kontrakt o wartości 200 milionów dolarów stanowi niewielką część zgłoszonego rocznego przychodu Anthropic wynoszącego 14 miliardów dolarów, co zapewnia firmie pewną izolację finansową. Jednak formalne umieszczenie na czarnej liście może mieć daleko idące konsekwencje dla reputacji i działalności handlowej firmy, zwłaszcza że Anthropic przygotowuje się do potencjalnej pierwszej oferty publicznej.

Precedens dla całej branży

Patowa sytuacja nie ogranicza się do firmy Anthropic. Pentagon negocjuje jednocześnie podobne warunki „wszystkich zgodnych z prawem celów” z OpenAI, Google i xAI Elona Muska. Różnica polega na tym, że firmy te są podobno bardziej skłonne do spełnienia żądań wojska, co sprawia, że firma Anthropic jest coraz bardziej izolowana w swojej odmowie.

Jak donosi Fox News, przegląd Pentagonu oznacza szerszą zmianę w podejściu administracji Trumpa do zamówień w zakresie technologii obronnych: oczekiwana postawa to zgodność, a nie ostrożność.

Ważniejsze pytanie

Spór ten krystalizuje pytanie, które od lat nurtuje branżę AI: kto ostatecznie decyduje o tym, w jaki sposób wykorzystywane są przełomowe narzędzia AI? Czy prywatne firmy powinny zachować prawo do ograniczania dostępu do własnych technologii, nawet jeśli klientami są rządy? A może bezpieczeństwo narodowe ma pierwszeństwo przed zasadami etyki korporacyjnej?

Anthropic twierdzi, że ograniczenia są cechą, a nie błędem — niezbędnym zabezpieczeniem przed katastrofalnym nadużyciem. Pentagon coraz częściej postrzega je jako przeszkodę. Rozwiązanie tego impasu stworzy precedens nie tylko dla amerykańskich zamówień publicznych w zakresie sztucznej inteligencji dla obronności, ale także dla globalnych norm regulujących wykorzystanie sztucznej inteligencji w działaniach wojennych.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły