Czym są autonomiczne bronie śmiercionośne i jak działają?
Autonomiczne bronie śmiercionośne – nazywane czasem „zabójczymi robotami” – mogą wybierać i atakować cele bez udziału człowieka naciskającego spust. Wyjaśniamy, jak działają, gdzie są już rozmieszczone i dlaczego świat ściga się, by je uregulować.
Broń, która sama wybiera cel
Żołnierz wystrzeliwuje pocisk, naciskając przycisk. Operator drona wybiera cel na ekranie. W obu przypadkach człowiek podejmuje ostateczną, śmiertelną decyzję. Ale nowa klasa broni całkowicie zmienia to równanie. Autonomiczne systemy broni śmiercionośnej (LAWS) – często nazywane w debacie publicznej „zabójczymi robotami” – mogą identyfikować, wybierać i atakować cele samodzielnie, po aktywacji, bez interwencji człowieka w momencie zabijania.
W miarę jak armie na całym świecie przyspieszają inwestycje w wojnę opartą na sztucznej inteligencji, zrozumienie, jak działają te systemy – i dlaczego alarmują międzynarodowych prawników, etyków i organizacje humanitarne – nigdy nie było ważniejsze.
Jak naprawdę działają autonomiczne bronie
Podstawowy mechanizm jest prosty w koncepcji, choć bardzo złożony w praktyce. Autonomiczna broń jest wstępnie zaprogramowana z profilem celu – zestawem cech, których system używa do identyfikacji tego, co powinien zaatakować. Może to być sygnatura radarowa nadlatującego pocisku, sygnatura cieplna silnika czołgu lub, w bardziej zaawansowanych systemach, wzorzec ruchu ludzkiego bojownika.
Po rozmieszczeniu czujniki pokładowe broni – kamery, radary, detektory podczerwieni, czujniki akustyczne – nieustannie skanują otoczenie. Kiedy sztuczna inteligencja systemu uzna, że coś pasuje do profilu celu, uruchamia atak bez dalszej interwencji człowieka.
Wiele systemów wykorzystuje uczenie maszynowe, co oznacza, że ich zachowanie wynika z danych treningowych, a nie z wyraźnych reguł. Jak zauważa Międzynarodowy Komitet Czerwonego Krzyża (MKCK), może to stworzyć efekt „czarnej skrzynki”: nawet inżynierowie mogą nie być w stanie w pełni przewidzieć lub wyjaśnić każdej decyzji dotyczącej celowania, którą podejmuje system.
Spektrum autonomii
Nie wszystkie autonomiczne bronie są równie autonomiczne. Eksperci zazwyczaj opisują spektrum:
- Człowiek w pętli: Człowiek zatwierdza każdy pojedynczy atak. Broń jest zautomatyzowana, ale nie autonomiczna.
- Człowiek na pętli: System działa autonomicznie, ale człowiek może go unieważnić w wąskim oknie czasowym – powszechne w obronie przeciwrakietowej.
- Człowiek poza pętlą: Broń działa w pełni niezależnie, bez praktycznej możliwości interwencji człowieka po wystrzeleniu.
Pierwsza kategoria obejmuje większość uzbrojonych dronów będących obecnie w służbie. Druga obejmuje systemy takie jak Phalanx CIWS Marynarki Wojennej USA, działo kierowane radarem, które autonomicznie przechwytuje nadlatujące pociski od lat 70. XX wieku. Trzecia – w pełni autonomiczne systemy śmiercionośne celujące w ludzi – to obszar, w którym wyznaczane są granice prawne i etyczne.
Już w użyciu
Wbrew temu, co wielu zakłada, bronie te nie są czysto teoretyczne. W 2020 roku dron Kargu-2 wyprodukowany przez turecką firmę STM miał wytropić i zaatakować ludzki cel w Libii – co panel Rady Bezpieczeństwa ONZ opisał jako prawdopodobnie pierwszy śmiertelny atak autonomicznej broni na ludzi. W 2021 roku Izrael rozmieścił roje dronów kierowanych przez sztuczną inteligencję w operacjach bojowych w Gazie.
Wiele państw – w tym Stany Zjednoczone, Chiny, Rosja, Korea Południowa i Izrael – aktywnie rozwija i wprowadza do użytku systemy o różnym stopniu autonomicznej zdolności celowania, zgodnie z informacjami Instytutu Studiów Międzynarodowych Freeman Spogli na Uniwersytecie Stanforda.
Podstawowy problem prawny i etyczny
Międzynarodowe prawo humanitarne wymaga, aby kombatanci rozróżniali żołnierzy i cywilów, oceniali proporcjonalność i podejmowali środki ostrożności przed użyciem śmiercionośnej siły. MKCK argumentuje, że tylko ludzie mogą dokonywać tych złożonych, wrażliwych na kontekst ocen. System uczenia maszynowego, który myli rolnika niosącego motykę z żołnierzem niosącym karabin, nie może być pociągnięty do odpowiedzialności prawnej ani moralnej – a jego ofiary nie mają możliwości odwołania się.
„Maszyny nie mogą wykonywać złożonych i unikalnych ludzkich ocen wymaganych na polach bitew” – stwierdza MKCK w swoim stanowisku w sprawie autonomicznych broni. Krytycy dodają, że rozmieszczenie broni, która działa bez znaczącej kontroli człowieka, mogłoby obniżyć próg rozpoczynania wojen, ponieważ po stronie rozmieszczającej nie ma żołnierzy narażonych na ryzyko.
Nacisk na globalne zasady
W grudniu 2024 roku Zgromadzenie Ogólne ONZ przyjęło rezolucję w sprawie autonomicznych broni śmiercionośnych w głosowaniu 166 za, przy sprzeciwie jedynie Białorusi, Korei Północnej i Rosji. Ponad 120 krajów popiera obecnie negocjacje w sprawie prawnie wiążącego traktatu. Sekretarz Generalny ONZ wezwał do zawarcia nowego prawa międzynarodowego do 2026 roku.
Human Rights Watch i koalicja Stop Killer Robots opowiadają się za traktatem, który zakazałby autonomicznych broni zaprojektowanych do celowania w ludzi i nałożyłby surowe wymogi dotyczące kontroli człowieka na wszystkie inne. Jak dotąd jednak nie istnieje żadne wiążące porozumienie – a technologia rozwija się szybciej niż dyplomacja.
Dlaczego to ma znaczenie
Debata na temat autonomicznych broni nie jest abstrakcyjna. W miarę jak możliwości sztucznej inteligencji się poprawiają, a budżety wojskowe przeznaczają zasoby na systemy bezzałogowe, pytanie o to, kto – lub co – podejmuje decyzję o zabijaniu, staje się jednym z definiujących pytań etycznych współczesnej wojny. To, czy prawo międzynarodowe nadąży za technologią, ukształtuje charakter konfliktów zbrojnych na dziesięciolecia.