Technológia

Mik azok a halálos autonóm fegyverek és hogyan működnek?

A halálos autonóm fegyverek – néha „gyilkos robotoknak” is nevezik őket – emberi beavatkozás nélkül képesek kiválasztani és megsemmisíteni célpontokat. Bemutatjuk, hogyan működnek, hol vetik be őket már most, és miért verseng a világ a szabályozásukért.

R
Redakcia
Share
Mik azok a halálos autonóm fegyverek és hogyan működnek?

A fegyver, amely maga választja ki a célpontját

Egy katona rakétát indít egy gomb megnyomásával. Egy drónpilóta kiválaszt egy célpontot a képernyőn. Mindkét esetben egy ember hozza meg a végső, halálos döntést. Egy új fegyverosztály azonban teljesen megváltoztatja ezt az egyenletet. A halálos autonóm fegyverrendszerek (LAWS) – amelyeket a közbeszédben gyakran „gyilkos robotoknak” neveznek – aktiválásuk után emberi beavatkozás nélkül képesek önállóan azonosítani, kiválasztani és megtámadni célpontokat a gyilkolás pillanatában.

Mivel a világ hadseregei felgyorsítják a mesterséges intelligencia által vezérelt hadviselésbe történő befektetéseket, soha nem volt még fontosabb megérteni, hogyan működnek ezek a rendszerek – és miért riasztják a nemzetközi jogászokat, etikusokat és humanitárius szervezeteket.

Hogyan működnek valójában az autonóm fegyverek

Az alapvető mechanizmus elméletileg egyszerű, bár a gyakorlatban rendkívül összetett. Egy autonóm fegyvert előre beprogramoznak egy célpontprofillal – egy olyan jellemzőkészlettel, amelyet a rendszer a megsemmisítendő célpont azonosítására használ. Ez lehet egy bejövő rakéta radarjele, egy harckocsimotor hőjele, vagy fejlettebb rendszerekben egy emberi harcos mozgásmintája.

A bevetés után a fegyver fedélzeti érzékelői – kamerák, radarok, infravörös érzékelők, akusztikus érzékelők – folyamatosan pásztázzák a környezetet. Amikor a rendszer mesterséges intelligenciája úgy ítéli meg, hogy valami megfelel a célpontprofilnak, emberi beavatkozás nélkül támadást indít.

Sok rendszer gépi tanulást használ, ami azt jelenti, hogy a viselkedésük képzési adatokból származik, nem pedig explicit szabályokból. Ahogy a Vöröskereszt Nemzetközi Bizottsága (ICRC) megjegyzi, ez egy „fekete doboz” hatást hozhat létre: még a mérnökök sem feltétlenül tudják teljes mértékben megjósolni vagy megmagyarázni a rendszer minden egyes célzási döntését.

Az autonómia spektruma

Nem minden autonóm fegyver egyformán autonóm. A szakértők általában egy spektrumot írnak le:

  • Ember a hurokban: Egy ember jóváhagy minden egyes csapást. A fegyver automatizált, de nem autonóm.
  • Ember a körön: A rendszer autonóm módon működik, de egy ember egy szűk időablakon belül felülbírálhatja azt – ez gyakori a rakétavédelemnél.
  • Ember a hurokból kikerülve: A fegyver teljesen önállóan működik, a kilövés után nincs gyakorlati lehetőség emberi beavatkozásra.

Az első kategóriába tartozik a legtöbb ma szolgálatban lévő fegyveres drón. A másodikba olyan rendszerek tartoznak, mint az amerikai haditengerészet Phalanx CIWS rendszere, egy radarvezérelt ágyú, amely az 1970-es évek óta önállóan elfogja a bejövő rakétákat. A harmadik – teljesen autonóm, embereket célzó halálos rendszerek – az, ahol a jogi és etikai vonalakat meghúzzák.

Már használatban vannak

A közhiedelemmel ellentétben ezek a fegyverek nem pusztán elméletiek. 2020-ban a török STM cég által gyártott Kargu-2 drón állítólag felkutatott és megtámadott egy emberi célpontot Líbiában – amit az ENSZ Biztonsági Tanácsának egy testülete az autonóm fegyverek által emberek ellen elkövetett első halálos csapásaként írt le. 2021-ben Izrael mesterséges intelligencia által vezérelt drónrajokat vetett be harci műveletekben a Gázai övezetben.

Több nemzet – köztük az Egyesült Államok, Kína, Oroszország, Dél-Korea és Izrael – aktívan fejleszt és telepít különböző fokú autonóm célzási képességgel rendelkező rendszereket a Stanfordi Freeman Spogli Nemzetközi Tanulmányok Intézete szerint.

A legfontosabb jogi és etikai probléma

A nemzetközi humanitárius jog előírja, hogy a harcosok különbséget tegyenek katonák és civilek között, felmérjék az arányosságot, és óvintézkedéseket tegyenek a halálos erő alkalmazása előtt. Az ICRC szerint csak az emberek képesek meghozni ezeket az összetett, kontextusérzékeny ítéleteket. Egy gépi tanulási rendszer, amely összetéveszt egy kapát cipelő gazdát egy puskát cipelő katonával, nem vonható jogi vagy erkölcsi felelősségre – és áldozatainak nincs jogorvoslati lehetősége.

„A gépek nem képesek gyakorolni azokat az összetett és egyedülállóan emberi ítéleteket, amelyek a csatatereken szükségesek” – állítja az ICRC az autonóm fegyverekkel kapcsolatos álláspontjában. A kritikusok hozzáteszik, hogy az emberi ellenőrzés nélkül működő fegyverek bevetése csökkentheti a háborúk kirobbantásának küszöbét, mivel a bevető oldalon nem kerülnek katonák veszélybe.

A globális szabályokért folytatott küzdelem

2024 decemberében az ENSZ Közgyűlése 166 szavazattal elfogadott egy határozatot a halálos autonóm fegyverekről, csak Fehéroroszország, Észak-Korea és Oroszország szavazott ellene. Több mint 120 ország támogatja jelenleg egy jogilag kötelező erejű szerződés megtárgyalását. Az ENSZ főtitkára új nemzetközi jog megkötését sürgette 2026-ig.

A Human Rights Watch és a Stop Killer Robots koalíció olyan szerződésért száll síkra, amely betiltaná az embereket célzó autonóm fegyvereket, és szigorú emberi ellenőrzési követelményeket írna elő minden másra. Eddig azonban nincs kötelező érvényű megállapodás – és a technológia gyorsabban fejlődik, mint a diplomácia.

Miért fontos ez

Az autonóm fegyverekről szóló vita nem elvont. Ahogy a mesterséges intelligencia képességei javulnak, és a katonai költségvetések erőforrásokat öntenek a pilóta nélküli rendszerekbe, az a kérdés, hogy ki – vagy mi – hozza meg a gyilkolásról szóló döntést, a modern hadviselés egyik meghatározó etikai kérdésévé válik. Az, hogy a nemzetközi jog képes-e lépést tartani a technológiával, évtizedekre meghatározza a fegyveres konfliktusok jellegét.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek