Von ferngesteuerten Kampfdrohnen zu autonomem Schießen

Autonome Waffensysteme – was gibt es schon und was könnte kommen?

von Jürgen Altmann
Schwerpunkt
Schwerpunkt

Kampfdrohnen sind inzwischen von etwa 40 Staaten eingeführt, mehr als zehn haben sie eingesetzt. Sie haben viele automatische Funktionen, aber das Auslösen der Waffen wird bisher durch menschliche Bediener*innen per Funk ferngesteuert. Die Steuerpersonen sehen Videobilder und andere Daten, oft über längere Zeit; wenn sie sich zum Angriff auf Personen, Gebäude oder Fahrzeuge entscheiden, wird das Signal übertragen und z.B. ein Flugkörper gestartet. Das erfordert aber zuverlässige Kommunikation in beiden Richtungen, mit Verzögerungen von einigen Sekunden, die in einem zukünftigen Krieg gegen einen kompetenten Gegner einen erheblichen Nachteil bedeuten würden, erst recht, wenn noch menschliche Entscheidungszeit dazu kommt. Daher gibt es starken militärischen Druck, den Menschen „aus der Entscheidungsschleife zu nehmen“ und die Angriffsentscheidungen dem Computer im Waffensystem zu überlassen. Funkverbindungen könnten nicht gestört werden, autonome Waffensysteme (AWS) würden sich nicht durch ihre Signale verraten. Militärplaner*innen versprechen sich höhere Kampfkraft durch Schwärme bewaffneter Systeme, die erst dann voll wirksam werden kann, wenn die Schwarmelemente sich selbst autonom organisieren.

Aus diesen Gründen erforschen und entwickeln die Länder mit modernen Streitkräften AWS. Die USA, die fast zwei Drittel der weltweiten Ausgaben für militärische Forschung und Entwicklung tragen, setzen auf Mensch-Maschine-Zusammenarbeit und autonome Systeme, sie haben 2009 als erstes Land Regeln und Bedingungen den Einsatz von AWS aufgestellt. Aber auch China und Russland sehen AWS (und künstliche Intelligenz im Militär allgemein) als strategische Revolution an, die entschieden verfolgt werden muss.

Gibt es schon autonome Waffensysteme?
Geht man von der funktionalen Definition aus, wonach AWS nach Aktivierung unabhängig von weiterem menschlichen Einfluss Ziele auswählen und angreifen können (US DoD, IKRK, s. Artikel von O. Steinbicker in diesem Heft), gibt es schon gewisse Arten von AWS:

  1. Nahbereichsabwehrsysteme mit Maschinenkanonen oder Flugkörpern und Radarsteuerung gegen anfliegende Flugkörper oder Flugzeuge; weil Menschen für die Zielerfassung und Steuerung zu langsam wären, können sie in den Automatikmodus geschaltet werden, z.B. MANTIS (Deutschland), Patriot (USA).
  2. Stationäre Wachroboter: Israel, Südkorea und die Türkei haben stationäre Systeme mit Sensoren, Zielerfassung und -verarbeitung und Maschinenwaffen entwickelt, die zu autonomem Waffeneinsatz fähig sein sollen, aber i.d.R. wohl unter menschlicher Steuerung betrieben werden.
  3. Zielsuchende Flugkörper mit langer Reichweite: Hier sollen nach längerer Flugzeit mittels Sensoren und Mustervergleich die richtigen Ziele ausgewählt werden.

AWS im engeren Sinne würden dagegen nicht auf ein besonderes Ziel gerichtet, sondern würden sich über längere Zeit in einem Gebiet bewegen, darin nach gegnerischen Personen oder Objekten suchen und sie nach Erkennung angreifen; die oben erwähnten Arten können als Vorformen angesehen werden. Es gibt genau ein System, auf das dieses engere Verständnis zutrifft: die israelische, propellergetriebene Drohne Harpy, die über viele Stunden in einem Gebiet nach feindlichen Radarstellungen suchen kann und dann, wenn eine erkannt wird, in sie hineinfliegt und dort explodiert. Aber sie hat nur diese eine Zielkategorie, die an ihren Signalen relativ einfach zu erkennen ist. Irgendwelche Fahrzeuge in Videobildern zu erkennen und sie als militärisch oder zivil, gegnerisch, verbündet oder neutral zu klassifizieren, stellt massiv höhere Anforderungen, insbesondere wenn man berücksichtigt, dass die Erkennung durch schwierige Lichtverhältnisse, partielle Sichtbarkeit oder Dunst weiter erschwert wird. Solche AWS gegen allgemeine Ziele gibt es noch nicht.
Das Kriegsvölkerrecht einzuhalten, erfordert eine gründliche Beurteilung der Situation. Ob Computeralgorithmen auf Grund von Sensordaten das in einer komplexen Gefechtslage überhaupt leisten können und wenn ja, wann, ist unklar. Man muss befürchten, dass dann, wenn ein Staat AWS vorschnell einführen würde, andere dem zügig folgen würden, um weiterhin wirksam kämpfen zu können.

Mögliche technische Entwicklungen
Wenn AWS nicht vorbeugend verboten werden, ist ein schneller, unbegrenzter Rüstungswettlauf abzusehen. Welche Arten von AWS in den nächsten fünf bis zwanzig Jahren stationiert werden könnten, kann man aus gegenwärtigen Forschungs- und Entwicklungsprojekten der USA ablesen (einige werden in der folgenden Liste beispielhaft genannt)(1). Dabei kann es einen gleitenden Übergang geben von ferngesteuerten zu autonomen Angriffen sowie von Mensch-Maschine-Teams zu komplett technischen Kampfeinheiten.
In Bezug auf Luftfahrzeuge würde es bei Nuklearbombern und nuklearen Marschflugkörpern Zurückhaltung geben, sie autonom fliegen zu lassen und die Zielauswahl und Freigabe Algorithmen zu überlassen. Bei nicht nuklearen Systemen sind jedoch viele Arten möglich:

  • düsengetriebene Flugzeuge in traditioneller Größe mit Fähigkeit zum Luftkampf sowie gegen Bodenziele (X-47B, XQ-58),
  • düsengetriebene kleinere Flugzeuge, die im Verbund oder im Schwarm kämpfen (X-61 Gremlins),
  • kleine und kleinste Flugzeuge mit Propeller, Rotor oder schlagenden Flügeln, die v.a. als Schwarm angreifen würden (MAST); ein solcher Schwarm könnte sich ggf. auch aufteilen und könnte auch von größeren Trägerflugzeugen abgesetzt werden (Perdix). Auch sind Einsatzverbünde mit autonomen Landsystemen möglich.

Auf Land ist Folgendes absehbar:

  • Kampfpanzer und ungepanzerte Fahrzeuge mit traditionellen sowie deutlich kleineren Größen (RCV)
  • kleinere, nicht gepanzerte Fahrzeuge für den Kampf in der Stadt, ggf. im Verbund mit kleinen Flugzeugen (OFFSET).

Auf See würden die meisten große Kriegsschiffe wohl weiter menschliche Mannschaften haben, aber als autonome Systeme wären möglich:

  • große und mittelgroße Schiffe für viele Aufgaben (LUSV, MUSV),
  • mittelgroße Schiffe, die U-Boote orten und bekämpfen (ACTUV),
  • Motorboote, die ggf. auch im Schwarm agieren (UMAA).

Unter Wasser würden große (Atom-)U-Boote wohl weiter eine menschliche Besatzung haben, aber es könnte geben:

  • kleine U-Boote, die U-Boote orten und bekämpfen (Orca),
  • Weiterentwicklungen von Torpedos, die Minen, Überwasserschiffe oder U-Boote selbständig orten, verfolgen und bekämpfen (Snakehead).

Der Trend zu Kampf im Verbund (von Luft- und Land- bzw. Seekräften, unter Einbeziehung des Weltraums und des Cyberraums) würde sich bei AWS fortsetzen und verstärken.

Entwicklungen in Deutschland
Im Bereich militärischer Forschung, Entwicklung und Planung beginnen Überlegungen, dass die Bundeswehr in Zukunft erheblich schneller und mit mehr Unterstützung durch künstliche Intelligenz kämpfen muss. Laut dem Fraunhofer-Verbund Verteidigungs- und Sicherheitsforschung bedingt Kampfüberlegenheit, Einsätze genauer und schneller als der Gegner zu planen und auszuführen. Für wirksame menschliche Steuerung von Waffensystemen müsse der Mensch die gesamte Situation verstehen und beurteilen. Welches Minimalniveau an Steuerung ein Mensch haben müsse und inwieweit autonome Handlungen an Maschinen übertragen werden können, könne gegenwärtig nicht beantwortet werden und müsse erforscht werden. (2) Das Amt für Heeresentwicklung der Bundeswehr schreibt, Entscheidungen müssten zukünftig in Minuten, Sekunden oder Sekundenbruchteilen getroffen werden (“Fight-at-Machine-Speed“, „Hyperwar“). Andererseits gelte das Prinzip wirksamer menschlicher Kontrolle. (3) Ob und wie sich das vereinbaren lässt, ist offen. Beim deutsch-französisch-spanischen Projekt für das Kampfflugzeug der nächsten Generation, Future Combat Air System (FCAS), soll das Flugzeug noch mit einem*r Pilot*in  besetzt sein, aber in der „Air Combat Cloud“ sollen mehrere Drohnen kämpfen. Wie hier menschliche Steuerung gewährleistet werden kann, wird bei der Entwicklung überlegt. Ein FCAS-Forum mit Teilnehmer*innen aus vielen Bereichen wurde eingerichtet, das die „verantwortliche Nutzung neuer Technologien“ in dem zukünftigen System diskutiert. (4)

Folgen für die militärische Stabilität und den Weltfrieden
AWS werden nicht für Einsätze in Entwicklungsländern geplant, sondern für den großen Krieg gegen einen etwa ebenbürtigen Gegner. Wenn die Staaten und ihre Streitkräfte nur die eigene Kampfkraft zur Richtschnur nehmen, ist ein Wettrüsten bei AWS und dann bei allgemeiner Computer-gesteuerter Gefechtsführung abzusehen. Das würde das Kriegsvölkerrecht gefährden, zu immer kürzeren Entscheidungszeiten zwingen und menschliche Steuerung immer stärker ausschalten. In Krisensituationen könnte schnell aus Computerfehlern, unklaren Situationen oder Fehlalarmen ein Krieg entstehen. Im Kalten Krieg gab es eine Reihe von nuklearen Fehlalarmen, in denen menschliche Überlegung den Start der eigenen Raketen verhindert hat – hier gab es noch etwa 15 Minuten Zeit zur Nachprüfung. Bei AWS in kurzem Abstand wäre die Flugzeit nur noch Sekunden. Um die eigenen Systeme noch nutzen zu können, bevor sie zerstört wären, müssten sie auf augenblickliches Zurückschießen programmiert werden. Solche instabilen Situationen könnten durch vorbeugende Rüstungskontrolle, insbesondere ein Verbot von AWS, verhindert werden. (5) Dabei spielen die USA, Russland und China eine Hauptrolle, aber andere Länder, auch Deutschland, können den Prozess fördern.

Anmerkungen
1 Die USA sind bei weitem am transparentesten bei militärischer Forschung und Entwicklung. Andere Länder betreiben ähnliche Projekte. Wieviel Autonomie den jeweiligen Systemen gegeben würde, würde von vielen Faktoren abhängen.
2 Fraunhofer Group for Defense and Security, Position Paper Rise of Artificial Intelligence in Military Weapons Systems, May 2020, https://www.fraunhofer.de/content/dam/zv/de/forschungsthemen/schutz-sich....
3 Künstliche Intelligenz in den Landstreitkräften – Ein Positionspapier des Amts für Heeresentwicklung, Köln: Amt für Heeresentwicklung, 2. Auflage November 2019,  https://www.bundeswehr.de/resource/blob/156024/d6ac452e72f77f3cc071184ae....
4 Die verantwortliche Nutzung neuer Technologien in einem Future Combat Air System (FCAS), Airbus, Fraunhofer FKIE, 2020, http://www.fcas-forum.eu/.
5 Dabei müssten wohl die schon vorhandenen Nahbereichtsabwehrsysteme als Ausnahmen erlaubt bleiben.

Jürgen Altmann ist Physiker und Friedensforscher an der Technischen Universität Dortmund.

Ausgabe

Rubrik

Schwerpunkt
Jürgen Altmann, Physiker und Friedensforscher, lehrt an der Technischen Universität Dortmund. Seine Arbeitsgebiete sind: akustische, seismische und magnetische Überwachung für Abrüstungs-, Friedens- und Nichtverbreitungsabkommen sowie die Folgenabschätzung neuer militärischer Techniken und vorbeugende Begrenzungen dafür.