Administracja Trumpa umieszcza Anthropic na czarnej liście, OpenAI zdobywa kontrakt z Pentagonem
Administracja Trumpa zakazała firmie Anthropic udziału w federalnych kontraktach po tym, jak firma zajmująca się sztuczną inteligencją odmówiła usunięcia zabezpieczeń przed autonomiczną bronią i krajową inwigilacją. W ciągu kilku godzin konkurencyjna firma OpenAI zawarła umowę z Pentagonem – z tymi samymi warunkami.
Starcie o rolę sztucznej inteligencji w działaniach wojennych
W dramatycznej konfrontacji ujawniającej podziały między Doliną Krzemową a waszyngtońskim establishmentem bezpieczeństwa narodowego, administracja Trumpa w piątek zakazała startupowi zajmującemu się sztuczną inteligencją, Anthropic, prowadzenia jakichkolwiek interesów z rządem federalnym – tylko po to, by kilka godzin później zobaczyć, jak konkurencyjna firma OpenAI zawiera umowę z Pentagonem, ironicznie z tymi samymi warunkami bezpieczeństwa, które wywołały całe to starcie.
Czerwone linie
Spór narastał od tygodni. Departament Obrony domagał się nieograniczonego dostępu do flagowego modelu AI Claude firmy Anthropic do „wszelkich zgodnych z prawem celów” w swoich tajnych sieciach. Anthropic wyznaczył dwie wyraźne granice: Claude nie będzie używany do autonomicznych systemów uzbrojenia i nie będzie wdrażany do masowej inwigilacji obywateli amerykańskich.
Sekretarz obrony Pete Hegseth wyznaczył ostateczny termin – godzina 17:01 czasu wschodniego w piątek – na wycofanie się Anthropic z tych ograniczeń. Firma nie ustąpiła. Dyrektor generalny Dario Amodei był kategoryczny: „Groźby nie zmieniają naszego stanowiska. Nie możemy w dobrej wierze przystać na ich prośbę”.
Zakaz i jego konsekwencje
W ciągu kilku minut po upływie terminu Hegseth oświadczył, że stanowisko Anthropic jest „zasadniczo niezgodne z amerykańskimi zasadami” i uznał firmę za ryzyko w łańcuchu dostaw dla bezpieczeństwa narodowego – etykietę częściej stosowaną do zagranicznych przeciwników, takich jak Huawei. Prezydent Trump poszedł w jego ślady, nakazując każdej agencji federalnej „natychmiastowe zaprzestanie” prowadzenia interesów z Anthropic i nakazując sześciomiesięczne wycofywanie istniejących kontraktów.
Stawka komercyjna jest realna, ale możliwa do opanowania dla Anthropic. Sporny kontrakt z Pentagonem jest wart około 200 milionów dolarów – ułamek z 14 miliardów dolarów rocznych przychodów firmy. Mimo to, oznaczenie związane z bezpieczeństwem narodowym niesie ze sobą szersze ryzyko, ponieważ Anthropic przygotowuje się do publicznego notowania, potencjalnie zniechęcając do innych kontraktów rządowych i budząc obawy wśród inwestorów instytucjonalnych.
Anthropic oświadczył, że nie otrzymał bezpośredniej komunikacji z Pentagonu przed upływem terminu i zapowiedział zaskarżenie tego oznaczenia w sądzie, nazywając je „prawnie nieuzasadnionym i niebezpiecznym precedensem dla każdej amerykańskiej firmy, która negocjuje z rządem”.
OpenAI wkracza – z tymi samymi zabezpieczeniami
Najbardziej uderzający zwrot akcji nastąpił kilka godzin po umieszczeniu Anthropic na czarnej liście. Dyrektor generalny OpenAI, Sam Altman, ogłosił, że jego firma zawarła umowę z Departamentem Obrony na wdrożenie swoich modeli w tajnych sieciach Pentagonu. Altman zauważył, że umowa wyraźnie zawiera te same zabezpieczenia, których domagał się Anthropic: „zakaz masowej inwigilacji krajowej i ludzkiej odpowiedzialności za użycie siły, w tym za autonomiczne systemy uzbrojenia”.
Paralela ta natychmiast wzbudziła zainteresowanie. Jeśli Pentagon był skłonny zaakceptować te zabezpieczenia od OpenAI, pytali krytycy, dlaczego nie był skłonny zaakceptować ich od Anthropic? Epizod ten podsycił spekulacje, że starcie dotyczyło mniej wymagań operacyjnych, a bardziej ustanowienia wpływu rządu na prywatnych twórców sztucznej inteligencji.
Precedens o implikacjach dla całej branży
Obserwatorzy branży ostrzegają, że wynik ten sygnalizuje coś znaczącego. Karanie firmy za odmowę usunięcia etycznych barier ochronnych – nawet poprzez legalne negocjacje kontraktowe – może ostudzić przyszłe partnerstwa w zakresie rozwoju sztucznej inteligencji z rządem federalnym. Niewiele startupów może sobie pozwolić na jednoczesne wchłonięcie utraconego kontraktu o wartości 200 milionów dolarów i oznaczenia związanego z bezpieczeństwem narodowym.
Na razie Anthropic pozostaje rzadką firmą technologiczną, która sprawdziła blef rządu w kwestii etyki sztucznej inteligencji. A OpenAI udowodnił, że pryncypialność i pragmatyzm mogą współistnieć – zapewniając sobie duży kontrakt obronny bez porzucania swoich deklarowanych czerwonych linii.