Technológie

Čo sú to smrtiace autonómne zbrane a ako fungujú?

Smrtiace autonómne zbrane – niekedy nazývané aj „robotickí zabijaci“ – si dokážu vybrať a zasiahnuť ciele bez toho, aby človek stlačil spúšť. Tu je návod, ako fungujú, kde sú už nasadené a prečo sa svet preteká v ich regulácii.

R
Redakcia
Share
Čo sú to smrtiace autonómne zbrane a ako fungujú?

Zbraň, ktorá si vyberá vlastný cieľ

Vojak odpáli raketu stlačením tlačidla. Pilot dronu si vyberie cieľ na obrazovke. V oboch prípadoch ide o človeka, ktorý robí konečné smrteľné rozhodnutie. Nová trieda zbraní to však úplne mení. Smrtiace autonómne zbraňové systémy (LAWS) – v verejnej debate často nazývané „robotickí zabijaci“ – dokážu po aktivácii identifikovať, vybrať a zaútočiť na ciele samostatne, bez zásahu človeka v momente zabitia.

Keďže armády na celom svete urýchľujú investície do vojny riadenej umelou inteligenciou, pochopenie toho, ako tieto systémy fungujú – a prečo znepokojujú medzinárodných právnikov, etikov a humanitárne organizácie – nebolo nikdy dôležitejšie.

Ako autonómne zbrane skutočne fungujú

Základný mechanizmus je koncepčne priamočiary, hoci v praxi veľmi zložitý. Autonómna zbraň je vopred naprogramovaná s profilom cieľa – súborom charakteristík, ktoré systém používa na identifikáciu toho, čo by mal zasiahnuť. Môže to byť radarový podpis prichádzajúcej rakety, tepelný podpis motora tanku alebo, v pokročilejších systémoch, pohybový vzorec ľudského bojovníka.

Po nasadení senzory zbrane – kamery, radar, infračervené detektory, akustické senzory – nepretržite skenujú prostredie. Keď umelá inteligencia systému usúdi, že niečo zodpovedá profilu cieľa, spustí útok bez akéhokoľvek ďalšieho zásahu človeka.

Mnohé systémy používajú strojové učenie, čo znamená, že ich správanie je odvodené z tréningových dát, a nie z explicitných pravidiel. Ako poznamenáva Medzinárodný výbor Červeného kríža (ICRC), môže to vytvoriť efekt „čiernej skrinky“: dokonca ani inžinieri nemusia byť schopní plne predpovedať alebo vysvetliť každé rozhodnutie systému o zacielení.

Spektrum autonómie

Nie všetky autonómne zbrane sú rovnako autonómne. Odborníci zvyčajne opisujú spektrum:

  • Človek v slučke: Človek schvaľuje každý jednotlivý úder. Zbraň je automatizovaná, ale nie autonómna.
  • Človek na slučke: Systém koná autonómne, ale človek ho môže prepísať v úzkom časovom okne – bežné pri protiraketovej obrane.
  • Človek mimo slučky: Zbraň funguje úplne nezávisle, bez praktickej možnosti zásahu človeka po jej vypustení.

Prvá kategória zahŕňa väčšinu ozbrojených dronov, ktoré sú dnes v prevádzke. Druhá zahŕňa systémy ako Phalanx CIWS amerického námorníctva, radarom navádzané delo, ktoré autonómne zachytáva prichádzajúce rakety už od 70. rokov. Tretia – plne autonómne smrtiace systémy zamerané na ľudí – je miesto, kde sa kreslia právne a etické hranice.

Už v používaní

Na rozdiel od toho, čo si mnohí myslia, tieto zbrane nie sú čisto teoretické. V roku 2020 dron Kargu-2, vyrobený tureckou firmou STM, údajne vyhľadal a zaútočil na ľudský cieľ v Líbyi – čo panel Bezpečnostnej rady OSN opísal ako pravdepodobne prvý smrteľný útok autonómnej zbrane proti ľuďom. V roku 2021 Izrael nasadil roje dronov riadených umelou inteligenciou v bojových operáciách v Gaze.

Podľa Freeman Spogli Institute for International Studies Stanfordskej univerzity viaceré krajiny – vrátane Spojených štátov, Číny, Ruska, Južnej Kórey a Izraela – aktívne vyvíjajú a nasadzujú systémy s rôznym stupňom autonómnej schopnosti zacielenia.

Základný právny a etický problém

Medzinárodné humanitárne právo vyžaduje, aby bojovníci rozlišovali medzi vojakmi a civilistami, posudzovali proporcionalitu a prijímali preventívne opatrenia pred použitím smrtiacej sily. ICRC tvrdí, že iba ľudia môžu robiť tieto zložité, kontextovo citlivé úsudky. Systém strojového učenia, ktorý si pomýli farmára nesúceho motyku s vojakom nesúcim pušku, nemôže byť braný na právnu ani morálnu zodpovednosť – a jeho obete nemajú žiadnu možnosť odvolania.

„Stroje nemôžu vykonávať zložité a jedinečne ľudské úsudky, ktoré sa vyžadujú na bojiskách,“ uvádza ICRC vo svojom stanovisku k autonómnym zbraniam. Kritici dodávajú, že nasadenie zbraní, ktoré fungujú bez zmysluplnej ľudskej kontroly, by mohlo znížiť prah pre začatie vojen, pretože na nasadzujúcej strane nie sú ohrození žiadni vojaci.

Snaha o globálne pravidlá

V decembri 2024 Valné zhromaždenie OSN prijalo rezolúciu o smrtiacich autonómnych zbraniach pomerom hlasov 166 za, pričom proti boli iba Bielorusko, Severná Kórea a Rusko. Viac ako 120 krajín teraz podporuje rokovania o právne záväznej zmluve. Generálny tajomník OSN vyzval na uzavretie nového medzinárodného práva do roku 2026.

Human Rights Watch a koalícia Stop Killer Robots obhajujú zmluvu, ktorá by zakázala autonómne zbrane určené na zacielenie na ľudí a uložila prísne požiadavky na ľudskú kontrolu všetkých ostatných. Zatiaľ však neexistuje žiadna záväzná dohoda – a technológia napreduje rýchlejšie ako diplomacia.

Prečo na tom záleží

Diskusia o autonómnych zbraniach nie je abstraktná. Keďže sa schopnosti umelej inteligencie zlepšujú a vojenské rozpočty vlievajú zdroje do bezpilotných systémov, otázka, kto – alebo čo – robí rozhodnutie zabíjať, sa stáva jednou z určujúcich etických otázok modernej vojny. To, či medzinárodné právo dokáže držať krok s technológiou, bude formovať povahu ozbrojeného konfliktu na desaťročia dopredu.

Tento článok je dostupný aj v iných jazykoch:

Zostaňte v obraze!

Sledujte nás na Facebooku a nič vám neunikne.

Sledujte nás na Facebooku

Podobné články