Pentagon kontra Anthropic: csata az AI vörös vonalaiért
Az amerikai Védelmi Minisztérium azzal fenyegetőzik, hogy az Anthropic-ot „ellátási lánc kockázatnak” minősíti, miután az AI-vállalat megtagadta, hogy Claude modelljét tömeges megfigyeléshez és teljesen autonóm fegyverekhez használják, ami sürgető kérdéseket vet fel azzal kapcsolatban, hogy ki irányítja a katonai AI-t.
Patthelyzet a mesterséges intelligencia határai körül
Az Egyesült Államok Védelmi Minisztériuma azzal fenyegetőzik, hogy megszakítja a kapcsolatot az Anthropic céggel – és potenciálisan feketelistára teszi az egész védelmi beszállítói ökoszisztémában –, miután hónapokig sikertelenül tárgyaltak arról, hogy a cég Claude mesterséges intelligencia modelljét hogyan használhatja az amerikai hadsereg. A vita, amely 2026 február közepén érte el csúcspontját, felszínre hozta a Szilícium-völgy biztonság-első AI kultúrája és Washington korlátlan hozzáférés iránti igénye a hatékony AI eszközökhöz közötti alapvető feszültséget.
Két határ, amelyet az Anthropic nem lép át
A konfliktus középpontjában két szigorú korlát áll, amelyet az Anthropic szabott Claude használatára: az amerikai állampolgárok tömeges megfigyelése és a teljesen autonóm fegyverrendszerek, azaz olyan fegyverek, amelyek képesek célpontokat kiválasztani és megtámadni anélkül, hogy ember beavatkozna a döntéshozatalba. Az Anthropic, amelynek alapja a biztonságos és megbízható AI létrehozása, szerint ezek a korlátozások nem tárgyalhatók.
A Pentagon álláspontja ugyanolyan határozott. A védelmi tisztviselők azt akarják, hogy az AI-szolgáltatók eszközeiket „minden törvényes célra” elérhetővé tegyék – ez egy olyan tág keret, amely hatékonyan felülírná a vállalatok által bevezetett korlátozásokat. Az Axios jelentése szerint a magas rangú katonai tisztviselők azzal érvelnek, hogy az Anthropic korlátozásai működésképtelen szürke zónákat hoznak létre és akadályozzák a műveleti rugalmasságot.
A Maduro-esemény
A feszültség hirtelen fokozódott, amikor az Anthropic megkérdezte, hogy Claude-ot használták-e az amerikai katonai műveletben, amely venezuelai elnök, Nicolás Maduro elfogásához vezetett. Maga a kérdés is riadalmat keltett a Pentagon tisztviselői körében, jelezve, hogy az Anthropic esetleg nem ért egyet technológiájának felhasználásával. Claude-ot állítólag a vállalat és a Palantir adatelemző cég közötti partnerség keretében vetették be, amely biztonságos felhőalapú infrastruktúrát biztosít a katonaság számára a modellhez való hozzáféréshez.
Az eset egy mélyebb problémát tárt fel: Claude már beépült a titkosított katonai környezetbe – egyes biztonságos környezetben ez az egyetlen elérhető AI-modell –, azonban az Anthropic és a Védelmi Minisztérium soha nem jutott végleges megállapodásra a szabályokról.
A nukleáris opció: ellátási lánc kockázata
Pete Hegseth védelmi miniszter állítólag hamarosan hivatalosan is „ellátási lánc kockázatnak” minősíti az Anthropic-ot. A címke súlyos következményekkel jár: nem csupán véget vetne az Anthropic közvetlen Pentagon-szerződésének – amelynek értéke akár 200 millió dollár is lehet –, hanem minden, a katonai szektorral üzleti kapcsolatban álló vállalatnak igazolnia kellene, hogy nem használja a Claude-ot semmilyen munkafolyamatban. Tekintettel arra, hogy az Anthropic állítása szerint Amerika tíz legnagyobb vállalatából nyolc az ügyfele, a dominóhatás hatalmas lehet.
A 200 millió dolláros szerződés az Anthropic jelentett 14 milliárd dolláros éves bevételének csak egy kis részét teszi ki, ami némi pénzügyi védelmet biztosít a vállalatnak. De a hivatalos feketelistára kerülés messzemenő reputációs és kereskedelmi következményekkel járhat, különösen mivel az Anthropic egy potenciális tőzsdei bevezetésre készül.
Iparági precedens
A patthelyzet nem korlátozódik az Anthropicra. A Pentagon egyidejűleg hasonló „minden törvényes célra” vonatkozó feltételekről tárgyal az OpenAI-jal, a Google-lal és Elon Musk xAI-jával. A különbség az, hogy ezek a vállalatok állítólag hajlandóbbak voltak alkalmazkodni a hadsereg követeléseihez, így az Anthropic egyre inkább elszigetelődött elutasításával.
Ahogy a Fox News beszámolt róla, a Pentagon felülvizsgálata egy szélesebb körű változást jelez a Trump-kormány védelmi technológiai beszerzésekhez való hozzáállásában: a várt magatartás a megfelelés, nem pedig az óvatosság.
A nagyobb kérdés
A vita egy olyan kérdést vet fel, amely évek óta foglalkoztatja az AI-ipart: végső soron ki szabályozza az AI-eszközök használatát? A magánvállalatoknak meg kell-e tartaniuk a jogot, hogy korlátozzák saját technológiájukat, még akkor is, ha a kormányok a kliensek? Vagy a nemzetbiztonság felülírja a vállalati etikai keretrendszereket?
Az Anthropic ragaszkodik ahhoz, hogy korlátai nem hiba, hanem szükséges védelem a katasztrofális visszaélések ellen. A Pentagon egyre inkább akadálynak tekinti őket. A patthelyzet megoldása precedenst teremt nemcsak az amerikai védelmi AI-beszerzések, hanem a háborúban alkalmazott AI-t szabályozó globális normák tekintetében is.