Technologia

OpenAI zawiera umowę z Pentagonem z bezprecedensowymi zabezpieczeniami AI

OpenAI zawarło umowę z Departamentem Obrony USA na wdrożenie swoich modeli AI w tajnych sieciach, ustanawiając trzy nieprzekraczalne granice – brak masowej inwigilacji, brak autonomicznej broni i brak automatycznych decyzji wysokiego ryzyka bez nadzoru człowieka.

R
Redakcia
Share
OpenAI zawiera umowę z Pentagonem z bezprecedensowymi zabezpieczeniami AI

Historyczne porozumienie, zawarte w kilka godzin

Wieczorem 27 lutego 2026 roku dyrektor generalny OpenAI, Sam Altman, ogłosił za pośrednictwem mediów społecznościowych, że jego firma „osiągnęła porozumienie z Departamentem Wojny w sprawie wdrożenia naszych modeli w ich tajnej sieci”. Umowa, opisana przez firmę jako zawierająca więcej zabezpieczeń niż jakakolwiek wcześniejsza umowa o wdrożeniu tajnej sztucznej inteligencji, została podpisana w ciągu kilku godzin od jednego z najbardziej dramatycznych epizodów w krótkiej historii wojskowych kontraktów na sztuczną inteligencję.

Konsekwencje sprawy Anthropic, które przygotowały grunt

Tło wydarzeń było wybuchowe. Sekretarz Obrony Pete Hegseth wcześniej w piątek uznał konkurencyjne laboratorium AI Anthropic za „zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego” – co było nadzwyczajnym i prawnie kwestionowanym posunięciem, które skutecznie uniemożliwiło kontrahentom wojskowym prowadzenie interesów z tą firmą. Prezydent Trump jednocześnie nakazał wszystkim agencjom federalnym natychmiastowe zaprzestanie korzystania z usług Anthropic.

Spór wynikał z odmowy Anthropic na wykorzystywanie jej sztucznej inteligencji bez stanowczych ograniczeń dotyczących masowej inwigilacji krajowej i w pełni autonomicznej broni. Pentagon zażądał akceptacji klauzuli „wszelkiego zgodnego z prawem użytku”, dając wojsku szeroką swobodę w zakresie sposobu wdrażania modeli AI. Anthropic odmówiło. OpenAI, w ciągu kilku godzin, wypełniło lukę.

Anthropic nazwało uznanie za zagrożenie dla łańcucha dostaw „prawnie nieuzasadnionym” i zapowiedziało zaskarżenie go w sądzie, argumentując, że Hegseth nie ma uprawnień prawnych do zakazywania kontrahentom prowadzenia interesów z prywatną firmą.

Trzy granice, których OpenAI nie przekroczy

Tym, co wyróżnia umowę OpenAI, jest wyraźne skodyfikowanie granic etycznych. OpenAI opublikowało trzy twarde ograniczenia – które nazywa czerwonymi liniami – które są osadzone w samej umowie i wsparte technicznymi zabezpieczeniami:

  • Brak masowej inwigilacji krajowej – technologia OpenAI nie może być wykorzystywana do inwigilacji obywateli amerykańskich na dużą skalę
  • Brak autonomicznych systemów uzbrojenia – modele AI nie mogą być wykorzystywane do kierowania śmiercionośną autonomiczną bronią bez nadzoru człowieka
  • Brak automatycznych decyzji wysokiego ryzyka – systemy podobne do „społecznej oceny” są wyraźnie zabronione

Według OpenAI, Pentagon zgodził się na te zasady, które znajdują również odzwierciedlenie w obowiązującym prawie i polityce USA. Co istotne, OpenAI zachowuje kontrolę nad tym, które modele są wdrażane i jak wdrażane są zabezpieczenia techniczne. Wdrożenie jest ograniczone do wyłącznie środowisk chmurowych – a nie urządzeń brzegowych – w szczególności w celu zapobieżenia możliwości autonomicznego, śmiercionośnego użycia w terenie.

Wyścig o wojskową sztuczną inteligencję o wartości 200 milionów dolarów

Stawka finansowa jest znacząca. Pentagon zawarł umowy o wartości do 200 milionów dolarów każda z wieloma głównymi laboratoriami AI, w tym OpenAI, w czymś, co sprowadza się do ustrukturyzowanej konkurencji o dominację w wojskowych zastosowaniach AI. Inne firmy, w tym xAI, również zaakceptowały ramy „wszelkiego zgodnego z prawem użytku” Pentagonu bez zabezpieczeń wynegocjowanych przez OpenAI.

Szybkość zawarcia umowy OpenAI – ogłoszonej tego samego wieczoru, w którym Anthropic został umieszczony na czarnej liście – przyciągnęła ostrą uwagę obserwatorów i samych pracowników OpenAI. Grupa pracowników zarówno OpenAI, jak i Google publicznie zażądała, aby ich firmy ustanowiły jasne „czerwone linie” przed podpisaniem jakichkolwiek kontraktów obronnych, ostrzegając przed normalizacją sztucznej inteligencji w podejmowaniu decyzji o użyciu śmiercionośnej siły.

Nowy precedens – czy kompromis?

Altman przedstawił umowę jako model odpowiedzialnej sztucznej inteligencji w kontekście bezpieczeństwa narodowego, zauważając, że zabezpieczenia techniczne – w tym klasyfikatory, które OpenAI może uruchamiać i aktualizować niezależnie – dają firmie znaczący nadzór, nawet w tajnym środowisku rządowym.

Krytycy pozostają sceptyczni. Umowa pokłada znaczną ufność w obietnicach umownych i zastrzeżonych kontrolach technicznych, z ograniczoną weryfikacją zewnętrzną. Ale na razie umowa OpenAI-Pentagon ustanawia nowy punkt odniesienia: po raz pierwszy firma zajmująca się sztuczną inteligencją wynegocjowała prawnie wiążące ograniczenia etyczne w tajnym wdrożeniu sztucznej inteligencji w amerykańskiej armii.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły