Technologia

Trump umieszcza Anthropic na czarnej liście, OpenAI przejmuje kontrakt z Pentagonem

Administracja Trumpa zakazała federalnego wykorzystywania technologii Anthropic po tym, jak firma AI odmówiła usunięcia ograniczeń bezpieczeństwa w swoim modelu Claude dla zastosowań wojskowych, co skłoniło rywala OpenAI do szybkiego zabezpieczenia kontraktu z Pentagonem – i wywołało gwałtowny sprzeciw w branży.

R
Redakcia
Share
Trump umieszcza Anthropic na czarnej liście, OpenAI przejmuje kontrakt z Pentagonem

Wielka rozgrywka o rolę sztucznej inteligencji w wojnie

W bezprecedensowym posunięciu, które wstrząsnęło branżą technologiczną, prezydent Donald Trump nakazał wszystkim agencjom federalnym natychmiastowe zaprzestanie korzystania z technologii AI firmy Anthropic, po tym, jak firma odmówiła usunięcia zabezpieczeń ze swojego modelu Claude do użytku przez Pentagon. Dyrektywa, wydana późnym piątkowym wieczorem, dała agencjom sześć miesięcy na wycofanie się z istniejących kontraktów – i stanowiła szybkie, brutalne ostrzeżenie dla Doliny Krzemowej: podporządkujcie się żądaniom rządu, albo poniesiecie konsekwencje.

Spór: Broń, inwigilacja i twarde stanowiska

Starcie narastało od miesięcy. Pentagon zażądał, aby Anthropic udzielił nieograniczonego dostępu do Claude'a do każdego „zgodnego z prawem celu” – sformułowanie, które, jak twierdzi firma, obejmowałoby krajową masową inwigilację obywateli amerykańskich i w pełni autonomiczne systemy uzbrojenia działające bez nadzoru człowieka.

Dyrektor generalny Anthropic, Dario Amodei, odmówił. W oświadczeniu argumentował, że takie zastosowania „po prostu wykraczają poza granice tego, co dzisiejsza technologia może bezpiecznie i niezawodnie zrobić”. Pentagon wyznaczył termin na godzinę 17:01 w piątek; Amodei nie ustąpił.

Sekretarz obrony Pete Hegseth odpowiedział, uznając Anthropic za „ryzyko w łańcuchu dostaw dla bezpieczeństwa narodowego” – etykietę zwykle zarezerwowaną dla zagranicznych przeciwników, takich jak chińskie firmy telekomunikacyjne. Oznaczenie to uniemożliwia każdemu kontrahentowi wojskowemu lub dostawcy prowadzenie interesów z firmą. Trump publicznie dołożył swoje, nazywając Anthropic „lewicowymi wariatami”, którzy popełnili „KATASTROFALNY BŁĄD”.

OpenAI wkracza – i spotyka się z własną reakcją

W ciągu kilku godzin od zakazu dyrektor generalny OpenAI, Sam Altman, ogłosił, że jego firma zawarła umowę z Pentagonem na wdrożenie modeli AI w tajnych sieciach wojskowych. Altman zapewnił, że umowa zawiera te same podstawowe zakazy, o które walczył Anthropic – brak krajowej masowej inwigilacji, brak autonomicznej broni – osiągnięte dzięki temu, co opisał jako „bardziej rozbudowane, wielowarstwowe podejście”.

Odbiór był bolesny. Otwarty list podpisany przez liderów technologicznych, w tym 11 pracowników OpenAI, ostrzegał, że „karanie amerykańskiej firmy za odmowę zaakceptowania zmian w umowie wysyła jasny sygnał do każdej firmy technologicznej w Ameryce: zaakceptujcie wszelkie warunki, jakich zażąda rząd, albo spotkacie się z odwetem”. Były doradca Trumpa ds. polityki AI nazwał posunięcie przeciwko Anthropic „po prostu próbą korporacyjnego morderstwa”.

Sam Altman przyznał później w mediach społecznościowych, że ogłoszenie umowy „wyglądało na oportunistyczne i niechlujne” i zobowiązał się do zmiany języka umowy, aby wyjaśnić zasady firmy dotyczące inwigilacji.

Werdykt rynku

Rynki i użytkownicy wydali własny werdykt: Claude, flagowy model Anthropic, stał się najczęściej pobieraną darmową aplikacją w sklepie Apple App Store w dniach następujących po zakazie – co jest uderzającym wyrazem publicznej sympatii dla stanowiska firmy. Anthropic zagroził podjęciem kroków prawnych przeciwko oznaczeniu jako zagrożenie dla bezpieczeństwa narodowego, nazywając działania administracji „odwetowymi i karnymi”.

Demokratyczny senator Mark Warner scharakteryzował ten epizod jako „nękanie” i zakwestionował, czy ramy bezpieczeństwa narodowego były podyktowane prawdziwą analizą, czy surową polityką.

Co to oznacza dla AI i rządu

Konfrontacja ta stanowi jak dotąd najbardziej dramatyczne starcie między rządem federalnym a firmą AI w sprawie etyki wdrażania wojskowej AI. Podstawowe pytanie – czy prywatne firmy mogą utrzymać granice bezpieczeństwa przy zawieraniu umów z państwem – nie zostanie rozwiązane jednym rozporządzeniem wykonawczym.

Ponieważ autonomiczna broń i inwigilacja wspomagana przez AI stają się coraz bardziej centralne dla wojny XXI wieku, spór Anthropic ustanawia precedens, z którym każda firma AI mająca ambicje rządowe będzie musiała się zmierzyć: ile ze swoich zasad możesz sobie pozwolić zachować?

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły