Technologie

Pentagon vs. Anthropic: Bitva o červené čáry umělé inteligence

Americké ministerstvo obrany hrozí, že společnost Anthropic označí za „riziko pro dodavatelský řetězec“, poté co tato společnost zabývající se umělou inteligencí odmítla povolit použití svého modelu Claude pro hromadné sledování a plně autonomní zbraně, což vyvolává naléhavé otázky ohledně toho, kdo řídí vojenskou umělou inteligenci.

R
Redakcia
Share
Pentagon vs. Anthropic: Bitva o červené čáry umělé inteligence

Patová situace ohledně limitů umělé inteligence

Ministerstvo obrany Spojených států hrozí přerušením vztahů se společností Anthropic – a potenciálně jejím zařazením na černou listinu celého ekosystému dodavatelů v oblasti obrany – po měsících neúspěšných jednání o tom, jak může americká armáda využívat model umělé inteligence Claude této společnosti. Spor, který vyvrcholil v polovině února 2026, odhalil zásadní napětí mezi kulturou umělé inteligence v Silicon Valley, která klade důraz na bezpečnost, a požadavkem Washingtonu na neomezený přístup k výkonným nástrojům umělé inteligence.

Dvě hranice, které společnost Anthropic nepřekročí

Jádrem konfliktu jsou dvě přísná omezení, která společnost Anthropic stanovila pro použití modelu Claude: hromadné sledování amerických občanů a plně autonomní zbraňové systémy, tj. zbraně schopné vybírat a napadat cíle bez lidského zásahu do rozhodovacího procesu. Společnost Anthropic, založená na premise budování bezpečné a spolehlivé AI, tvrdí, že tato omezení jsou nekompromisní.

Pentagon zaujímá stejně pevný postoj. Představitelé ministerstva obrany chtějí, aby dodavatelé AI zpřístupnili své nástroje pro „všechny zákonné účely“ – což je široký rámec, který by účinně přepsal omezení stanovená společností. Podle zprávy Axiosu tvrdí vysocí vojení představitelé, že omezení společnosti Anthropic vytvářejí nefunkční šedé zóny a brání operační flexibilitě.

Maduroův spouštěč

Napětí prudce eskalovalo, když společnost Anthropic zjistila, zda byl Claude použit v americké vojenské operaci, která vedla k zajetí venezuelského prezidenta Nicoláse Madura. Samotná otázka znepokojila představitele Pentagonu, což naznačovalo, že společnost Anthropic by mohla nesouhlasit s tím, jak je její technologie využívána. Claude byl údajně nasazen prostřednictvím partnerství společnosti s firmou Palantir zabývající se analýzou dat, která poskytuje bezpečnou cloudovou infrastrukturu umožňující vojenskému sektoru přístup k tomuto modelu.

Tato epizoda odhalila hlubší problém: Claude je již zabudován do utajovaných vojenských prostředí – v některých zabezpečených prostředích je to jediný dostupný model umělé inteligence – ale Anthropic a ministerstvo obrany se nikdy nedohodly na definitivních pravidlech.

Jaderná varianta: riziko dodavatelského řetězce

Ministr obrany Pete Hegseth je údajně blízko tomu, aby Anthropic označil za formální „riziko dodavatelského řetězce“. Toto označení má závažné důsledky: nejenže by ukončilo přímou smlouvu Anthropic s Pentagonem – v hodnotě až 200 milionů dolarů –, ale také by vyžadovalo, aby každá společnost obchodující s armádou potvrdila, že Claude nepoužívá v žádném pracovním postupu. Vzhledem k tomu, že Anthropic tvrdí, že osm z deseti největších amerických společností je jeho zákazníky, kaskádový efekt by mohl být obrovský.

Smlouva v hodnotě 200 milionů dolarů představuje pouze malou část z celkových ročních tržeb společnosti Anthropic, které podle zpráv dosahují 14 miliard dolarů, což společnosti poskytuje určitou finanční ochranu. Formální zařazení na černou listinu by však mohlo mít dalekosáhlé důsledky pro reputaci a obchodní činnost společnosti, zejména vzhledem k tomu, že se Anthropic připravuje na potenciální vstup na burzu.

Precedens pro celé odvětví

Patová situace se netýká pouze společnosti Anthropic. Pentagon současně vyjednává podobné podmínky „všech zákonných účelů“ se společnostmi OpenAI, Google a xAI Elona Muska. Rozdíl spočívá v tom, že tyto společnosti jsou údajně ochotnější vyhovět požadavkům armády, což vede k tomu, že společnost Anthropic je se svým odmítnutím stále více izolovaná.

Jak informovala stanice Fox News, přezkum Pentagonu znamená širší posun v přístupu Trumpovy administrativy k nákupu obranných technologií: očekává se spíše dodržování předpisů než opatrnost.

Větší otázka

Tento spor krystalizuje otázku, kterou si odvětví AI klade již řadu let: kdo nakonec rozhoduje o tom, jak se transformativní nástroje AI používají? Měly by si soukromé společnosti ponechat právo omezovat vlastní technologie, i když jsou jejich zákazníky vlády? Nebo má národní bezpečnost přednost před etickými rámci společností?

Společnost Anthropic trvá na tom, že její omezení jsou funkcí, nikoli chybou – nezbytnou ochranou před katastrofickým zneužitím. Pentagon je však stále více vnímá jako překážku. Vyřešení tohoto sporu vytvoří precedens nejen pro zadávání veřejných zakázek v oblasti obranné AI v USA, ale i pro globální normy upravující AI ve válčení.

Tento článek je dostupný také v jiných jazycích:

Zůstaňte v obraze!

Sledujte nás na Facebooku a nic vám neunikne.

Sledujte nás na Facebooku

Související články