Co jsou to smrtící autonomní zbraně a jak fungují?
Smrtící autonomní zbraně – někdy nazývané „zabijácké roboty“ – si mohou samy vybírat a zasahovat cíle bez lidského zásahu. Zde je popsáno, jak fungují, kde už jsou nasazeny a proč svět usiluje o jejich regulaci.
Zbraň, která si vybírá vlastní cíl
Voják odpálí raketu stisknutím tlačítka. Pilot dronu vybere cíl na obrazovce. V obou případech je to člověk, kdo činí konečné smrtící rozhodnutí. Nová třída zbraní ale tuto rovnici zcela mění. Smrtící autonomní zbraňové systémy (LAWS) – v veřejné debatě často nazývané „zabijácké roboty“ – mohou po aktivaci samy identifikovat, vybírat a útočit na cíle, bez jakéhokoli lidského zásahu v okamžiku zabíjení.
Vzhledem k tomu, že armády po celém světě urychlují investice do válčení řízeného umělou inteligencí, je pochopení toho, jak tyto systémy fungují – a proč znepokojují mezinárodní právníky, etiky a humanitární organizace – důležitější než kdy jindy.
Jak autonomní zbraně skutečně fungují
Základní mechanismus je v konceptu přímočarý, i když v praxi velmi složitý. Autonomní zbraň je předem naprogramována s profilem cíle – sadou charakteristik, které systém používá k identifikaci toho, co má zasáhnout. Může to být radarový podpis přilétající rakety, tepelný podpis motoru tanku nebo, u pokročilejších systémů, pohybový vzorec lidského bojovníka.
Po nasazení senzory zbraně – kamery, radary, infračervené detektory, akustické senzory – nepřetržitě skenují okolí. Když umělá inteligence systému usoudí, že něco odpovídá profilu cíle, spustí útok bez jakéhokoli dalšího lidského vstupu.
Mnoho systémů používá strojové učení, což znamená, že jejich chování je odvozeno z trénovacích dat, nikoli z explicitních pravidel. Jak uvádí Mezinárodní výbor Červeného kříže (ICRC), může to vytvořit efekt „černé skříňky“: dokonce ani inženýři nemusí být schopni plně předvídat nebo vysvětlit každé rozhodnutí systému o cílení.
Spektrum autonomie
Ne všechny autonomní zbraně jsou stejně autonomní. Odborníci obvykle popisují spektrum:
- Člověk ve smyčce: Člověk schvaluje každý jednotlivý úder. Zbraň je automatizovaná, ale není autonomní.
- Člověk na smyčce: Systém jedná autonomně, ale člověk jej může v úzkém časovém okně přepsat – běžné u protiraketové obrany.
- Člověk mimo smyčku: Zbraň funguje zcela nezávisle, bez praktické možnosti lidského zásahu po odpálení.
První kategorie zahrnuje většinu ozbrojených dronů, které jsou dnes v provozu. Druhá zahrnuje systémy, jako je Phalanx CIWS amerického námořnictva, radarově naváděné dělo, které autonomně zachycuje přilétající rakety od 70. let. Třetí – plně autonomní smrtící systémy zaměřené na lidi – je místo, kde se rýsují právní a etické hranice.
Již v použití
Na rozdíl od toho, co si mnozí myslí, tyto zbraně nejsou čistě teoretické. V roce 2020 dron Kargu-2, vyrobený tureckou firmou STM, údajně vyhledal a napadl lidský cíl v Libyi – což panel Rady bezpečnosti OSN popsal jako možná první smrtící úder autonomní zbraně proti lidem. V roce 2021 Izrael nasadil roje dronů řízených umělou inteligencí v bojových operacích v Gaze.
Podle Freeman Spogli Institute for International Studies při Stanfordu aktivně vyvíjí a nasazuje systémy s různým stupněm autonomní schopnosti cílení několik států – včetně Spojených států, Číny, Ruska, Jižní Koreje a Izraele.
Zásadní právní a etický problém
Mezinárodní humanitární právo vyžaduje, aby bojovníci rozlišovali mezi vojáky a civilisty, posuzovali proporcionalitu a přijímali preventivní opatření před použitím smrtící síly. ICRC tvrdí, že pouze lidé mohou činit tato složitá, kontextově citlivá rozhodnutí. Systém strojového učení, který si splete farmáře nesoucího motyku s vojákem nesoucím pušku, nemůže být právně ani morálně odpovědný – a jeho oběti nemají žádnou možnost odvolání.
„Stroje nemohou vykonávat složité a jedinečně lidské úsudky vyžadované na bojištích,“ uvádí ICRC ve svém stanovisku k autonomním zbraním. Kritici dodávají, že nasazení zbraní, které fungují bez smysluplné lidské kontroly, by mohlo snížit práh pro zahájení válek, protože na straně nasazujícího nejsou žádní vojáci v ohrožení.
Snaha o globální pravidla
V prosinci 2024 přijalo Valné shromáždění OSN rezoluci o smrtících autonomních zbraních poměrem hlasů 166 pro, přičemž proti byly pouze Bělorusko, Severní Korea a Rusko. Více než 120 zemí nyní podporuje vyjednávání právně závazné smlouvy. Generální tajemník OSN vyzval k uzavření nového mezinárodního práva do roku 2026.
Human Rights Watch a koalice Stop Killer Robots se zasazují o smlouvu, která by zakázala autonomní zbraně určené k cílení na lidi a uložila přísné požadavky na lidskou kontrolu u všech ostatních. Zatím však neexistuje žádná závazná dohoda – a technologie postupuje rychleji než diplomacie.
Proč na tom záleží
Debata o autonomních zbraních není abstraktní. Jak se zlepšují schopnosti umělé inteligence a vojenské rozpočty nalévají zdroje do bezpilotních systémů, otázka, kdo – nebo co – činí rozhodnutí zabíjet, se stává jednou z určujících etických otázek moderního válčení. Zda mezinárodní právo dokáže držet krok s technologií, ovlivní povahu ozbrojených konfliktů na desetiletí dopředu.