Technologie

Was sind letale autonome Waffen und wie funktionieren sie?

Letale autonome Waffen – manchmal auch als 'Killerroboter' bezeichnet – können Ziele auswählen und angreifen, ohne dass ein Mensch den Abzug betätigt. Hier wird erklärt, wie sie funktionieren, wo sie bereits eingesetzt werden und warum die Welt darum wetteifert, sie zu regulieren.

R
Redakcia
Share
Was sind letale autonome Waffen und wie funktionieren sie?

Die Waffe, die ihr Ziel selbst wählt

Ein Soldat feuert eine Rakete ab, indem er einen Knopf drückt. Ein Drohnenpilot wählt ein Ziel auf einem Bildschirm aus. In beiden Fällen trifft ein Mensch die endgültige, tödliche Entscheidung. Doch eine neue Waffenklasse verändert diese Gleichung grundlegend. Letale autonome Waffensysteme (LAWS) – in der öffentlichen Debatte oft als „Killerroboter“ bezeichnet – können, einmal aktiviert, Ziele selbstständig identifizieren, auswählen und angreifen, ohne dass ein Mensch im Moment des Tötens eingreift.

Da Militärs auf der ganzen Welt ihre Investitionen in KI-gestützte Kriegsführung beschleunigen, ist es wichtiger denn je zu verstehen, wie diese Systeme funktionieren – und warum sie internationale Juristen, Ethiker und humanitäre Organisationen alarmieren.

Wie autonome Waffen tatsächlich funktionieren

Der Kernmechanismus ist konzeptionell einfach, in der Praxis jedoch äußerst komplex. Eine autonome Waffe ist mit einem Zielprofil vorprogrammiert – einer Reihe von Merkmalen, anhand derer das System erkennt, was es angreifen soll. Dies kann die Radarsignatur einer ankommenden Rakete, die Wärmesignatur eines Panzermotors oder, in fortgeschritteneren Systemen, das Bewegungsmuster eines menschlichen Kämpfers sein.

Einmal eingesetzt, scannen die bordeigenen Sensoren der Waffe – Kameras, Radar, Infrarotdetektoren, akustische Sensoren – kontinuierlich die Umgebung. Wenn die KI des Systems feststellt, dass etwas mit dem Zielprofil übereinstimmt, löst sie einen Angriff aus, ohne dass ein weiterer menschlicher Eingriff erforderlich ist.

Viele Systeme verwenden maschinelles Lernen, was bedeutet, dass ihr Verhalten eher von Trainingsdaten als von expliziten Regeln abgeleitet wird. Wie das Internationale Komitee vom Roten Kreuz (IKRK) feststellt, kann dies einen „Black-Box“-Effekt erzeugen: Selbst Ingenieure sind möglicherweise nicht in der Lage, jede Zielentscheidung des Systems vollständig vorherzusagen oder zu erklären.

Ein Spektrum der Autonomie

Nicht alle autonomen Waffen sind gleich autonom. Experten beschreiben typischerweise ein Spektrum:

  • Human-in-the-loop: Ein Mensch genehmigt jeden einzelnen Angriff. Die Waffe ist automatisiert, aber nicht autonom.
  • Human-on-the-loop: Das System agiert autonom, aber ein Mensch kann es innerhalb eines engen Zeitfensters außer Kraft setzen – üblich bei der Raketenabwehr.
  • Human-out-of-the-loop: Die Waffe operiert völlig unabhängig, ohne dass es nach dem Start eine praktische Möglichkeit für menschliches Eingreifen gibt.

Die erste Kategorie umfasst die meisten bewaffneten Drohnen, die heute im Einsatz sind. Die zweite umfasst Systeme wie das Phalanx CIWS der US Navy, eine radargesteuerte Kanone, die seit den 1970er Jahren autonom ankommende Raketen abfängt. Die dritte – vollautonome, letale Systeme, die auf Menschen zielen – ist der Bereich, in dem rechtliche und ethische Grenzen gezogen werden.

Bereits im Einsatz

Entgegen der landläufigen Meinung sind diese Waffen nicht rein theoretisch. Im Jahr 2020 soll eine vom türkischen Unternehmen STM hergestellte Kargu-2-Drohne in Libyen ein menschliches Ziel aufgespürt und angegriffen haben – was ein Gremium des UN-Sicherheitsrats als möglicherweise ersten tödlichen Angriff einer autonomen Waffe gegen Menschen bezeichnete. Im Jahr 2021 setzte Israel KI-gesteuerte Drohnenschwärme bei Kampfeinsätzen im Gazastreifen ein.

Mehrere Nationen – darunter die Vereinigten Staaten, China, Russland, Südkorea und Israel – entwickeln und erproben aktiv Systeme mit unterschiedlichem Grad an autonomer Zielfähigkeit, so das Freeman Spogli Institute for International Studies der Stanford University.

Das zentrale rechtliche und ethische Problem

Das humanitäre Völkerrecht verlangt von Kombattanten, zwischen Soldaten und Zivilisten zu unterscheiden, die Verhältnismäßigkeit zu beurteilen und Vorsichtsmaßnahmen zu treffen, bevor sie tödliche Gewalt anwenden. Das IKRK argumentiert, dass nur Menschen diese komplexen, kontextsensitiven Urteile fällen können. Ein System des maschinellen Lernens, das einen Bauern mit einer Hacke mit einem Soldaten mit einem Gewehr verwechselt, kann weder rechtlich noch moralisch zur Rechenschaft gezogen werden – und seine Opfer haben keine Möglichkeit der Wiedergutmachung.

„Maschinen können nicht die komplexen und einzigartig menschlichen Urteile fällen, die auf Schlachtfeldern erforderlich sind“, erklärt das IKRK in seiner Position zu autonomen Waffen. Kritiker fügen hinzu, dass der Einsatz von Waffen, die ohne sinnvolle menschliche Kontrolle operieren, die Schwelle für den Beginn von Kriegen senken könnte, da auf der einsetzenden Seite keine Soldaten gefährdet werden.

Das Drängen auf globale Regeln

Im Dezember 2024 verabschiedete die UN-Generalversammlung eine Resolution zu letalen autonomen Waffen mit 166 Ja-Stimmen, bei nur Gegenstimmen von Belarus, Nordkorea und Russland. Mehr als 120 Länder unterstützen nun die Aushandlung eines rechtsverbindlichen Vertrags. Der UN-Generalsekretär hat gefordert, bis 2026 ein neues internationales Recht zu verabschieden.

Human Rights Watch und die Stop Killer Robots-Koalition setzen sich für einen Vertrag ein, der autonome Waffen verbietet, die auf Menschen abzielen, und strenge Anforderungen an die menschliche Kontrolle für alle anderen Waffen stellt. Bisher gibt es jedoch keine verbindliche Vereinbarung – und die Technologie schreitet schneller voran als die Diplomatie.

Warum es wichtig ist

Die Debatte über autonome Waffen ist nicht abstrakt. Da sich die KI-Fähigkeiten verbessern und die Militärbudgets Ressourcen in unbemannte Systeme fließen lassen, wird die Frage, wer – oder was – die Entscheidung zum Töten trifft, zu einer der entscheidenden ethischen Fragen der modernen Kriegsführung. Ob das Völkerrecht mit der Technologie Schritt halten kann, wird die Natur bewaffneter Konflikte für Jahrzehnte prägen.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel