Pentagon vs. Anthropic: Boj o červené čiary umelej inteligencie
Ministerstvo obrany USA hrozí, že spoločnosť Anthropic označí za „riziko dodávateľského reťazca“ po tom, ako táto spoločnosť zaoberajúca sa umelou inteligenciou odmietla povoliť použitie svojho modelu Claude na masové sledovanie a plne autonómne zbrane, čím vyvolala naliehavé otázky o tom, kto riadi vojenskú umelú inteligenciu.
Patová situácia ohľadom limitov umelej inteligencie
Ministerstvo obrany Spojených štátov hrozí prerušením vzťahov so spoločnosťou Anthropic – a potenciálne jej zaradením na čiernu listinu celého ekosystému dodávateľov obranného priemyslu – po mesiacoch neúspešných rokovaní o tom, ako môže americká armáda využívať model umelej inteligencie Claude tejto spoločnosti. Spor, ktorý vyvrcholil v polovici februára 2026, odhalil zásadné napätie medzi kultúrou umelej inteligencie v Silicon Valley, ktorá kladie na prvé miesto bezpečnosť, a požiadavkou Washingtonu na neobmedzený prístup k výkonným nástrojom umelej inteligencie.
Dve hranice, ktoré Anthropic neprekročí
V centre konfliktu sú dve prísne obmedzenia, ktoré Anthropic stanovil pre používanie Claude: hromadné sledovanie amerických občanov a plne autonómne zbraňové systémy – t. j. zbrane schopné vyberať a zasahovať ciele bez účasti človeka v rozhodovacom procese. Spoločnosť Anthropic, založená na premise budovania bezpečnej a spoľahlivej umelej inteligencie, tvrdí, že tieto obmedzenia nie sú predmetom rokovaní.
Pentagón zaujal rovnako pevný postoj. Predstavitelia ministerstva obrany chcú, aby dodávatelia umelej inteligencie sprístupnili svoje nástroje na „všetky zákonné účely“ – čo je široký rámec, ktorý by efektívne prevážil obmedzenia stanovené spoločnosťou. Podľa správy Axiosu vysokí vojenskí predstavitelia tvrdia, že obmedzenia spoločnosti Anthropic vytvárajú nefunkčné šedé zóny a bránia operačnej flexibilite.
Madurova spúšť
Napätie prudko eskalovalo, keď spoločnosť Anthropic zisťovala, či bol Claude použitý v americkej vojenskej operácii, ktorá viedla k zajatiu venezuelského prezidenta Nicolása Madura. Samotná otázka vyvolala obavy predstaviteľov Pentagónu, čo naznačovalo, že spoločnosť Anthropic by mohla nesúhlasiť s tým, ako bola jej technológia nasadená. Claude bol údajne nasadený prostredníctvom partnerstva spoločnosti s firmou Palantir, ktorá sa zaoberá analýzou údajov a poskytuje bezpečnú cloudovú infraštruktúru umožňujúcu vojenskému personálu prístup k modelu.
Táto epizóda odhalila hlbší problém: Claude je už integrovaný do utajovaných vojenských prostredí – v niektorých zabezpečených prostrediach je to jediný dostupný model umelej inteligencie – napriek tomu Anthropic a ministerstvo obrany nikdy nedosiahli definitívnu dohodu o pravidlách používania.
Jadrová možnosť: riziko dodávateľského reťazca
Minister obrany Pete Hegseth je údajne blízko k tomu, aby Anthropic označil za formálne „riziko dodávateľského reťazca“. Toto označenie má vážne dôsledky: nielenže by to znamenalo koniec priamej zmluvy Anthropic s Pentagonom – v hodnote až 200 miliónov dolárov –, ale vyžadovalo by to, aby každá spoločnosť, ktorá obchoduje s armádou, potvrdila, že nepoužíva Claude v žiadnom pracovnom procese. Vzhľadom na to, že Anthropic tvrdí, že osem z desiatich najväčších amerických spoločností je jeho zákazníkmi, kaskádový efekt by mohol byť obrovský.
Zmluva v hodnote 200 miliónov dolárov predstavuje len malú časť z celkového ročného príjmu spoločnosti Anthropic, ktorý podľa jej údajov dosahuje 14 miliárd dolárov, čo spoločnosti poskytuje určitú finančnú istotu. Formálne zaradenie na čiernu listinu by však mohlo mať ďalekosiahle dôsledky na jej reputáciu a obchodné aktivity, najmä vzhľadom na to, že Anthropic sa pripravuje na potenciálny vstup na burzu.
Precedens v celom odvetví
Tento patový stav sa netýka len spoločnosti Anthropic. Pentagón súčasne rokuje o podobných podmienkach „všetkých zákonných účelov“ so spoločnosťami OpenAI, Google a xAI Elona Muska. Rozdiel je v tom, že tieto spoločnosti sú údajne ochotnejšie vyhovieť požiadavkám armády, čím sa Anthropic svojím odmietnutím dostáva do čoraz väčšej izolácie.
Ako informovala stanica Fox News, revízia Pentagónu znamená širšiu zmenu v prístupe Trumpovej administratívy k obstarávaniu obranných technológií: očakáva sa skôr súlad ako opatrnosť.
Väčšia otázka
Tento spor kryštalizuje otázku, ktorou sa odvetvie umelej inteligencie zaoberá už roky: kto nakoniec rozhoduje o tom, ako sa transformatívne nástroje umelej inteligencie používajú? Mali by si súkromné spoločnosti zachovať právo obmedzovať svoju vlastnú technológiu, aj keď sú ich klientmi vlády? Alebo má národná bezpečnosť prednosť pred rámcami podnikovej etiky?
Spoločnosť Anthropic trvá na tom, že jej obmedzenia sú vlastnosťou, nie chybou – nevyhnutnou ochranou pred katastrofálnym zneužitím. Pentagón ich čoraz viac vníma ako prekážku. Vyriešenie tohto patu vytvorí precedens nielen pre obstarávanie AI v oblasti obrany v USA, ale aj pre globálne normy upravujúce AI vo vojnových konfliktoch.