Trumpova administrativa zařadila Anthropic na černou listinu, OpenAI se chopila zakázky Pentagonu
Trumpova administrativa zakázala veškeré federální využití společnosti Anthropic poté, co tato firma zabývající se umělou inteligencí odmítla zrušit bezpečnostní omezení svého modelu Claude pro vojenské aplikace, což vedlo konkurenční OpenAI k rychlému zajištění kontraktu s Pentagonem – a k prudké reakci v odvětví.
Závod o vysoké sázky ohledně role AI ve válce
V bezprecedentním kroku, který otřásl technologickým průmyslem, prezident Donald Trump nařídil všem federálním agenturám, aby okamžitě přestaly používat technologii AI od společnosti Anthropic poté, co společnost odmítla odstranit bezpečnostní zábrany ze svého modelu Claude pro použití Pentagonem. Směrnice, vydaná v pozdních pátečních hodinách, dala agenturám šest měsíců na ukončení stávajících smluv – a vyslala rychlé a brutální varování Silicon Valley: dodržujte vládní požadavky, jinak čelte následkům.
Spor: Zbraně, sledování a tvrdé hranice
Střet se připravoval měsíce. Pentagon požadoval, aby Anthropic udělil neomezený přístup ke Claude pro jakýkoli „zákonný účel“ – formulace, která by podle společnosti zahrnovala domácí masové sledování amerických občanů a plně autonomní zbraňové systémy fungující bez lidského dohledu.
Generální ředitel společnosti Anthropic Dario Amodei to odmítl. V prohlášení argumentoval tím, že takové použití je „jednoduše mimo rámec toho, co dnešní technologie dokáže bezpečně a spolehlivě dělat.“ Pentagon stanovil páteční uzávěrku na 17:01; Amodei neustoupil.
Ministr obrany Pete Hegseth reagoval označením Anthropic za „riziko dodavatelského řetězce pro národní bezpečnost“ – označení, které je obvykle vyhrazeno pro zahraniční protivníky, jako jsou čínské telekomunikační firmy. Toto označení zakazuje jakémukoli vojenskému dodavateli nebo subdodavateli obchodovat se společností. Trump se veřejně přidal a nazval Anthropic „levicovými blázny“, kteří udělali „KATASTROFÁLNÍ CHYBU.“
OpenAI se hlásí – a čelí vlastní reakci
Během několika hodin po zákazu generální ředitel OpenAI Sam Altman oznámil, že jeho společnost zajistila dohodu s Pentagonem o nasazení modelů AI v utajovaných vojenských sítích. Altman trval na tom, že dohoda zahrnuje stejné základní zákazy, za které Anthropic bojoval – žádné domácí masové sledování, žádné autonomní zbraně – dosažené prostřednictvím toho, co popsal jako „rozsáhlejší, vícevrstvý přístup.“
Optika byla zničující. Otevřený dopis podepsaný technologickými lídry, včetně 11 zaměstnanců OpenAI, varoval, že „potrestání americké společnosti za odmítnutí přijmout změny smlouvy vysílá jasný signál každé technologické společnosti v Americe: přijměte jakékoli podmínky, které vláda požaduje, jinak čelte odvetě.“ Trumpův bývalý poradce pro politiku AI označil krok proti Anthropic za „pouhý pokus o korporátní vraždu.“
Sám Altman později na sociálních sítích přiznal, že oznámení dohody „vypadalo oportunisticky a ledabyle“ a slíbil, že upraví znění smlouvy, aby objasnil zásady společnosti ohledně sledování.
Verdikt trhu
Trhy a uživatelé vynesli svůj vlastní verdikt: Claude, vlajkový model společnosti Anthropic, se v dnech po zákazu vyšplhal na pozici nejstahovanější bezplatné aplikace v Apple App Store – což je pozoruhodný projev veřejných sympatií k postoji společnosti. Anthropic pohrozil právními kroky proti označení za ohrožení národní bezpečnosti a označil kroky administrativy za „odvetné a trestající.“
Demokratický senátor Mark Warner označil epizodu za „šikanu“ a zpochybnil, zda je rámec národní bezpečnosti řízen skutečnou analýzou nebo surovou politikou.
Co to znamená pro AI a vládu
Konflikt představuje dosud nejdramatičtější konfrontaci mezi federální vládou a společností zabývající se AI ohledně etiky nasazení vojenské AI. Základní otázka – zda si soukromé společnosti mohou udržet bezpečnostní hranice při uzavírání smluv se státem – nebude vyřešena jedním výkonným nařízením.
Protože se autonomní zbraně a sledování s pomocí AI stávají stále důležitějšími pro válčení 21. století, spor Anthropic stanovuje precedens, kterým se bude muset řídit každá firma zabývající se AI s vládními ambicemi: kolik ze svých zásad si můžete dovolit zachovat?