Neue Waffen

Autonome Waffen und Roboterkrieg: Hohe Hürden bis zum Verbot

von Niklas Schörnig
Hintergrund
Hintergrund

Als die Teilnehmerinnen und Teilnehmer des Treffens der Group of Governmental Experts (GGE) der UN-Waffenkonvention CCW (Convention on Certain Conventional Weapons) Ende August 2018 in Genf auseinandergingen, war bei vielen Delegierten und BeobachterInnen die Stimmung schlecht. Denn zum dritten Mal hatten RegierungsexpertInnen in Genf offiziell zur Frage eines möglichen Verbots autonomer letaler Waffensysteme getagt. Und zum dritten Mal war am Ende nichts Substanzielles dabei herausgekommen. So hätte am Ende der Gespräche ein Fahrplan für die Aufnahme von staatlichen Verhandlungen zu einem Verbot stehen können. Stattdessen trat man weiterhin auf der Stelle.

Aber was sind letale autonome Waffensysteme überhaupt, die von KritikerInnen oft auch als Killerroboter bezeichnet werden? Um diese Fragen zu beantworten, gilt es zunächst, den technischen Stand im Bereich unbemannter militärischer Systeme anschauen. Das beste Beispiel sind hier Drohnen. Drohnen sind unbemannte Flugobjekte, die extrem lange in der Luft bleiben können, Aufklärung in Echtzeit betreiben und, je nach Modell, auch für Angriffe, z.B. gezielte Tötungen, genutzt werden können. Auch wenn viele spezifische Funktionen inzwischen durch Computer erledigt werden, z.B. das Abfliegen von Wegpunkten oder Start und Landung, liegen zentrale Entscheidung, z.B. der Waffeneinsatz, immer noch beim Operator am Boden. Es löst am Ende also immer noch ein Mensch die Waffe aus, das System ist in Kernfunktionen ferngesteuert.

Das wäre bei autonomen Waffensystemen anders. Auch wenn sich die StaatenvertreterInnen in Genf noch nicht auf eine gemeinsame Definition einigen konnten (und auch einige Staaten die Uneinigkeit über mögliche Definitionen strategisch nutzen), so bietet die Direktive 3000.09 des Pentagon aus dem Jahr 2012 eine gute erste Annäherung. Laut diesem Dokument ist ein Waffensystem autonom, wenn sowohl die Zielauswahl, als auch die Entscheidung zum Waffeneinsatz durch einen Computer erfolgen, ohne dass es ein Mensch noch einmal aktiv bestätigt hat. Simpler ausgedrückt: Ein Computeralgorithmus entscheidet allein, wann und auf was oder wen die Waffe schießt. Im Bereich von Selbstverteidigungssystemen, z.B. auf Kriegsschiffen oder zum Schutz von Feldlagern, gibt es bereits Systeme, die selbstständig anfliegende Raketen oder Geschosse detektieren und abschießen. Wird ein System, das beide Aufgaben selbstständig durchführt, gegen Menschen gerichtet, spricht man von einem letalen autonomen Waffensystem, kurz LAWS.

Bislang sind LAWS noch nicht im Einsatz. Allerdings befürchten viele KritikerInnen einen schleichenden Prozess hin zu solchen autonomen Waffen. Denn autonome Kampfsysteme böten aus militärischer Sicht viele Vorteile, speziell in Konflikten mit ebenbürtigen Gegnern. Dazu zunächst der Blick auf die Nachteile aktueller Drohnen, die die USA aktuell z.B. in Afghanistan oder dem Jemen einsetzen. Diese eignen sich nur für den „unumkämpften Luftraum“ und sind für eine moderne Luftabwehr ein leichtes Ziel. Zusätzlich besteht die Gefahr, dass die Fernsteuersignale durch den Kontrahenten gestört oder manipuliert werden. Autonome Drohnen hingegen wären weder von einem Steuerungssignal abhängig, noch leicht zu bekämpfen. Gegen bemannte Jets oder ältere ferngesteuerte Drohnen eingesetzt, könnten autonome Waffen ihr Potenzial voll zur Geltung bringen – auf Kosten der menschlichen Kontrolle. Technisch wäre es zumindest in einigen Bereichen kein Problem, krude letale autonome Waffen schon heute zu entwickeln.

KritikerInnen, wie die Campaign to Stop Killer Robots (https://www.stopkillerrobots.org/)  greifen in der Debatte meist auf ethische (https://netzpolitik.org/2017/autonome-drohnen-die-besseren-waffen/), völkerrechtliche (https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-kille...) und sicherheitspolitische (https://www.tandfonline.com/doi/abs/10.1080/00396338.2017.1375263) Argumentationen zurück. Allerdings ist dieses Dreieck nicht gleich gewichtet. Gerade Nichtregierungsorganisationen (NGOs) betonen die ethischen und völkerrechtlichen Argumente. Dies ist angesichts ihres Hintergrunds im Bereich der humanitären Rüstungskontrolle mit dem Blick auf individuelle Not und persönliches menschliches Leid nachvollziehbar. Verkürzt lässt sich das rechtliche Argumente so zusammenfassen: Autonome Waffen können zentrale Prinzipien des Humanitären Völkerrechts, speziell das Diskriminierungs- und Proportionalitätsgebot nicht umsetzen, da diese praktisch nicht zu programmieren sind. Die Waffen sind also völkerrechtlich nicht zulässig. Ethisch wird vorgebracht, es widerspräche der Würde des Menschen, durch einen Algorithmus getötet zu werden. Beide Argumentationsstränge sind aber zumindest problematisch: So ist z.B. nicht auszuschließen, dass zukünftige Software Völkerrecht ausreichend gut umsetzt, um als rechtskompatibel zu gelten. Und auch wenn man dem ethischen Argument persönlich zustimmen mag, zeigen sich gerade die Staaten, die einem Verbot von LAWS bislang entgegenstehen, von ethischen Bedenken schlicht ungerührt.

Autonome Waffen sind aber nicht nur rechtlich fragwürdig und ethisch verwerflich. Sie setzen die Völkergemeinschaft der Gefahr eines Rüstungswettlaufs mit unkalkulierbaren Folgen, einem rasend schnell eskalierenden Krieg und dem Verlust der Kontrolle über extrem mächtige Waffen aus. Deshalb sollten in der Debatte noch viel stärker die destabilisierenden und eskalierenden Potenziale autonomer Waffen, also ihre sicherheitspolitischen Implikationen, hervorgehoben werden - auch wenn dies inzwischen etwas stärker als noch zu Beginn der Diskussion geschieht.
Aus rüstungskontrollpolitischer Perspektive gibt es allerdings zwei zentrale, miteinander verwobene Probleme: das bereits angesprochene Fehlen einer allgemein akzeptierten Definition und der Mangel an Ideen, wie ein Bann in der Praxis verifiziert, also die Einhaltung überprüft werden könnte. Einige KritikerInnen von LAWS umgehen das Definitionsproblem, indem sie statt einer genauen Definition des verbotenen Gegenstandes ein abstraktes Prinzip, das der „bedeutsamen menschlichen Kontrolle“, vorschlagen, das im Rahmen des Völkerrechts verankert werden könnte. Hinter diesem abstrakten Prinzip könnte sich vermutlich eine Mehrheit der Staaten versammeln.

Allerdings funktioniert Rüstungskontrolle so eigentlich nicht. Ein Staat kann sehr schnell ins Hintertreffen geraten, wenn er auf modernste Militärtechnologie bewusst verzichtet und sich darauf verlässt, dass auch andere Staaten sich an das Übereinkommen genauso halten, wie man es selbst interpretiert. Diese Situation ist allen Studierenden der internationalen Beziehungen als das Sicherheitsdilemma bekannt. Es muss deshalb sichergestellt werden, dass sich alle Vertragspartner auch wirklich an die gemeinsame Vereinbarung halten. Dieses Problem der Compliance ist bei letalen autonomen Waffen die Gretchenfrage. Aus Sicht der Rüstungskontrolle gilt es deshalb, den zu regulierenden oder zu verbietenden Gegenstand möglichst genau zu definieren und dann Mechanismen der Überprüfung zu etablieren. Selbst wenn es also in Genf gelänge, eine gemeinsame Definition von LAWS zu finden, stünde noch die Frage der Verifikation im Raum. Um hier Fortschritte zu machen, müssten die Staaten vermutlich deutlich intensiver mit ExpertInnen aus der IT-Industrie zusammenarbeiten. Interessanterweise haben sich viele IT-Firmen in den letzten Jahren deutlich gegen eine Mitarbeit an autonomen Waffen ausgesprochen. Jetzt sollten diese Firmen ihren Worten auch Taten folgen lassen und sich aktiv daran beteiligen, Verifikationsoptionen zu entwickeln.   

Weiterführende Literatur:
Boulanin, Vincent/Verbruggen, Maaike 2017: Mapping the Development of Autonomy in Weapon Systems, Stockholm: SIPRI
Heinrich Böll Foundation, ed. 2018: Autonomy in Weapon Systems. A Report by Daniele Amoroso, Frank Sauer, Noel Sharkey, Lucy Suchman and Guglielmo Tamburrini Berlin: Heinrich Böll Foundation.
Scharre, Paul (2018). Army of None. Autonomous Weapons and the Future orf War. New York, London: W.W. Norton & Company.
Schörnig, Niklas (2014): Automatisierte Kriegsführung - Wie viel Entscheidungsraum bleibt dem Menschen? In: Aus Politik und Zeitgeschichte Bd.64, Nr. 35-37, S. 27-34.

Ausgabe

Rubrik

Hintergrund
Niklas Schörnig ist wissenschaftlicher Mitarbeiter bei der Hessischen Stiftung Friedens- und Konfliktforschung.