Menü

Autonome Waffensysteme: keine Regulierung in Sicht

Der russische Angriffskrieg in der Ukraine und die damit verbundenen Waffenlieferungen sorgen weltweit für Aufrüstung und steigende Verteidigungsausgaben. Dies wirft auch Fragen rund um die Verwendung moderner Waffensysteme auf, die durch den Einsatz neuer Technologien zunehmend autonomer werden.

Vor einem Banner mit UN-Logo steht ein Roboter. An seiner Brust haftet ein Schild mit der Aufschrift: Stop Killer Robots
Ein Roboter der zivilgesellschaftlichen Initiative „Campain to Stop Killer Robots“ bei einer Pressekonferenz der Vereinten Nationen. (UN Photo/Evan Schneider)

Der Krieg in der Ukraine zeigt einmal mehr, dass der technologische Fortschritt auch im Bereich der Waffensysteme rasant voranschreitet. Unbemannte Drohnen gehören mittlerweile zum klassischen Inventar, wobei ihr Einsatz sowohl der Beobachtung als auch dem Beschuss dienen kann. Zwar werden Angriffe in der Regel noch durch einen menschlichen Befehl ausgelöst, es ist jedoch nur eine Frage der Zeit, bis Maschinen eigenständig entscheiden, wann sie wen angreifen. Ein Bericht der Vereinten Nationen (UN) aus dem Jahr 2021 deutet darauf hin, dass es in Libyen im Jahr 2020 erstmals zu einem autonomen Angriff durch eine Militärdrohne gekommen ist. Zwar sind genauere Details ungeklärt, doch an der zunehmenden Autonomie von Waffensystemen bestehen schon lange keine Zweifel mehr. In Anbetracht der Risiken, die mit autonomen Waffen einhergehen, besteht dringender Regulierungsbedarf auf internationaler Ebene. Doch bereits die Frage, was genau eine Regulierung umfassen soll, ist nicht abschließend geklärt.

Ungeklärte Definition

2016 definierte das Internationale Komitee vom Roten Kreuz autonome Waffensysteme als solche, die, ohne menschliches Handeln, Ziele auswählen und angreifen können. Diese weite Definition wird jedoch nicht von allen Staaten geteilt. China beispielsweise betrachtet ein Waffensystem erst dann als autonom, wenn es eine strategische Mission eigenständig abändern kann. Deutschland und Frankreich wiederum differenzieren zwischen vollautonomen und teilautonomen tödlichen Waffensystemen. Vollautonome Waffensysteme, die in der Lage sind, Angriffe ohne menschliche Einwirkung zu tätigen, gehören laut beider Länder vollständig verboten. Der Einsatz teilautonomer Waffensysteme hingegen, deren Handlungsrahmen vom Menschen vorgegeben ist, soll reguliert möglich sein. In beiden Fällen begrenzt sich die Definition auf tödliche Waffensysteme.

Neben der mangelnden einheitlichen Definition, wirft auch der Umfang einer möglichen Regulierung Fragen auf. Soll bereits die Entwicklung autonomer Waffensysteme reguliert werden, oder sollen sich die Regelungen auf den Einsatz dieser Waffen beschränken? Wie autonome Waffen eingesetzt werden, ist von großer Bedeutung. Denn gängige Flugabwehrsysteme besitzen schon heute autonome Elemente und beschießen ihre Ziele eigenständig. Da sie jedoch ausschließlich zur Verteidigung dienen und unbelebte Ziele angreifen, wirft ihre Verwendung keine ethischen oder völkerrechtlichen Fragen auf. Anders verhält es sich mit Waffen, die autonom menschliche Ziele angreifen und als offensive Waffen im Kriegsgeschehen eingesetzt werden. In diesem Zusammenhang wird die Autonomie zu einem bedenklichen Faktor mit Risiken auf moralischer, technischer und rechtlicher Ebene.

Die Risiken autonomer Waffensysteme

Im Bereich der Entwicklung neuer Waffensysteme spielt die Anwendung künstlicher Intelligenz zunehmend eine große Rolle. Algorithmen könnten zukünftig Situationen in kriegerischen Auseinandersetzungen selbst erfassen, analysieren und eigenständig, ohne menschliches Einwirken, Entscheidungen über Leben und Tod treffen. Das ist aus moralischer Perspektive höchst problematisch, da ein solches Vorgehen Menschen objektiviert und die Menschenwürde verletzt. Außerdem wird vermutet, dass die Möglichkeit, anstelle von Soldaten sogenannte „Killerroboter“ in den Krieg zu schicken, die Hemmschwelle für bewaffnete Konflikte senkt, die Kriegsführung beschleunigt und die Opferzahlen erhöht.

Darüber hinaus birgt der Einsatz von künstlicher Intelligenz immer die Gefahr, dass Fehler passieren. Zwar machen auch Menschen Fehler, deren Ausmaße sind jedoch im Vergleich zu den von Algorithmen begangenen Fehlern noch kontrollierbar. Denn Maschinen wissen nicht zwangsläufig, dass sie einen Fehler machen, und in einigen Fällen lässt sich der Ursprung des Fehlers nicht umgehend erkennen, um ihn zu beheben.

Auf rechtlicher Ebene ist unklar, wie sichergestellt werden soll, dass Maschinen sich an völkerrechtliche Grundsätze, wie die Unterscheidung zwischen Zivilisten und Kombattanten oder den Grundsatz der Verhältnismäßigkeit halten. Auch ist nicht festgelegt, wer die Verantwortung für das Handeln einer autonomen Waffe trägt und im Falle eines Fehlverhaltens zur Rechenschaft gezogen werden kann. In einem offenen Brief an die Bundesregierung wiesen zahlreiche Wissenschaftlerinnen und Wissenschaftler im Jahr 2021 auf genau diese Gefahr hin und forderten einen „rechtsverbindlichen internationalen Regulierungsrahmen für die Nutzung [der] ‚Autonomie in Waffensystemen‘“.

Erste Bestrebungen nach einem internationalen Regelwerk

Bemühungen um einen solchen internationalen Regulierungsrahmen – zumindest für autonome tödliche Waffensysteme – gibt es auf UN-Ebene bereits seit 2014. Damals wurde, im Zusammenhang mit der UN-Konvention über bestimmte konventionelle Waffen (‚UN-Waffenkonvention‘), eine Expertengruppe zu autonomen tödlichen Waffensystemen ins Leben gerufen. Während die Expertengruppe (Group of Governmental Experts (GGE)) vorerst informell agierte, wurden 2017 offizielle Verhandlungen angestoßen, an denen mehr als 70 Staaten sowie Wissenschaftlerinnen und Wissenschaftler und Nichtregierungsorganisationen beteiligt sind.

Die Experten befassten sich unter anderem mit der Definition autonomer Waffensysteme, der völkerrechtlichen Problematik in Verbindung mit der Interaktion zwischen Mensch und Maschine, sowie mit möglichen humanitären und sicherheitspolitischen Konsequenzen eines Einsatzes dieser Waffensysteme. 2019 wurden auf Empfehlung der GGE elf Leitprinzipien zu autonomen tödlichen Waffensystemen von den Vertragsstaaten der UN-Waffenkonvention verabschiedet. Diese legen in erster Linie fest, dass das humanitäre Völkerrecht vollständig auch auf Waffensysteme anwendbar ist und dass autonome tödliche Waffen dem Völkerrecht unterliegen.

Das Scheitern der Verhandlungen

Seitdem ist jedoch nicht mehr viel geschehen. Im Gegenteil: die Bestrebungen, autonome tödliche Waffensysteme international zu regulieren, scheinen in einer Sackgasse angekommen zu sein. Als die 125 Vertragsstaaten der UN-Waffenkonvention im Dezember letzten Jahres zu ihrem fünfjährigen Treffen zusammenkamen, rief UN-Generalsekretär Antonio Guterres dazu auf, einen ambitionierten Plan für die Regulierung autonomer tödlicher Waffensysteme zu entwickeln. Doch die Vertragsstaaten konnten sich nicht auf eine rechtlich bindende Regulierung einigen, insbesondere weil sich Staaten wie die USA und Russland dagegen aussprachen. Als im März 2022 die Expertengruppe erneut zusammentraf, boykottierte Russland die Sitzung, indem es die Tagesordnung ablehnte. Zwar tagt die GGE aktuell erneut, jedoch gelten ihre Bemühungen bereits seit März als gescheitert. Da die Expertengruppe dem Konsensprinzip unterliegt, sind ihre Handlungsmöglichkeiten begrenzt. Insbesondere mit Blick auf die aktuelle Situation und den anhaltenden russischen Angriffskrieg in der Ukraine ist keine Annäherung innerhalb dieses Forums in Sicht.

Daher braucht es jetzt eine Alternative – idealerweise einen oder mehrere Vorreiterstaaten, die die Initiative ergreifen und zu Verhandlungen einladen. Auch können gemeinsame Positionen auf kleinerer Ebene erarbeitet werden, beispielsweise innerhalb der NATO oder der Europäischen Union. Haben mehrere Staaten erst einmal eine Einigung für eine Regulierung autonomer Waffensysteme erzielt, können die Vereinten Nationen erneut als Verhandlungsforum dienen.

Von Rebecca Fleming

Das könnte Sie auch interessieren


  • ›Besonders grausame Waffen‹

    ›Besonders grausame Waffen‹

    01.02.1996
    ›Besonders grausame Waffen‹: Erste Überprüfungskonferenz der Vertragsstaaten des Übereinkommens - Noch keine Einigung über Verbot der Anti-Personen-Minen - Protokoll für bedingtes Verbot von Laserblendwaffen verabschiedet (3). mehr

  • Abrüstungsausschuss

    Abrüstungsausschuss

    01.10.1979
    Abrüstungsausschuss: Erstmals in neuer Form - Konsensprinzip beibehalten - Einigung über Verbot radiologischer Waffen (47). mehr

  • Leichtfertig in den Kampfeinsatz?

    Leichtfertig in den Kampfeinsatz?

    28.04.2020
    Die Waffensysteme der Zukunft werden weitgehend autonom sein und Entscheidungen selbstständig treffen können. Das bringt Chancen, aber auch eine Vielzahl an ethischen Fragen, sicherheitspolitischen Aspekten sowie rechtlichen und operativen Problemen… mehr