„Menschlicher verhalten können als menschliche Wesen“?

Mythos „Targeted Killing“

von Susanne GrabenhorstChristian Heck
Hintergrund
Hintergrund

Am 3.4.24 wurde im israelisch-palästinensischen Magazin +972 eine investigative Recherche des israelischen Journalisten Yuval Abraham zu dem auf „Künstliche Intelligenz“ (KI) gestützten System „Lavender“ veröffentlicht. Sie folgte auf Abrahams Recherche vom November 2023 zu einem KI-gestützten Befehls-, Kontroll- und Entscheidungsunterstützungssystem des israelischen Militärs (IDF) „The Gospel“. Es wurde genutzt, um Gebäude zu markieren, aus denen heraus Hamas- Kämpfer operieren. Lavender dagegen markiert nicht Gebäude oder Landstriche, sondern Menschen. Es erstellt eine Liste von Personen, die getötet werden sollen. Laut den Zeugenaussagen, auf denen die Recherche beruht, würden vor allem die Wohnungen angegriffen – nachts, wenn normalerweise die ganze Familie anwesend ist, da die Gesuchten in den Wohnungen leichter zu lokalisieren seien. Dazu werde u.a. ein weiteres System „Where is Daddy?“ aktiviert, was die Verdächtigen verfolgt und nach Betreten des Hauses bombardiert.

Vieles erinnert an den „War on Terror“ der USA nach 2001: Das Töten von Familien als Kollateralschaden, maschinell generierte Todeslisten, die Senkung der Schwelle bei der Definition eines Terroristen, die erzeugte psychische Distanz, das falsche Versprechen von „gezielten Tötungen“ mit weniger zivilen Opfern.

Die Hemmschwelle, sich bei militärischen Operationen auf komplexe informationsverarbeitende Systeme zu verlassen, ist in den letzten zwanzig Jahren drastisch gesunken. Wie bei früheren Systemen zur Überwachung und Zusammenführung getrennter Datenbestände, sind auch in Lavender Machine-Learning-Komponenten und Lernalgorithmen implementiert.

Sie analysieren Daten algorithmisch bzw. mit statistischen Methoden, um Muster in ihnen zu erkennen. Diese wiederum dienen als Basis für automatisierte Empfehlungen an Führungs- und Einsatzkräfte auf verschiedenen Ebenen der Befehlskette.

Die IDF setzten +972 zufolge insbesondere in den ersten Wochen nach dem Überfall der Hamas am 7. Oktober großes Vertrauen in Lavender. Doch wie beim US-amerikanischen Drohnenprogramm, das zu sehr vielen zivilen Todesopfern führte, so war auch in den IDF laut den zitierten Zeugen ein Wissen um die technische Fehleranfälligkeit vorhanden. Dies gilt sowohl für rein technische Fehler, als auch für Fehler im Erkenntnisgewinn durch KI-gestützte Systeme.

Geheimdienstmitarbeiter*innen hätten die Genauigkeit von Lavender manuell an Zufallsstichproben überprüft und eine 90-prozentige Treffergenauigkeit gefunden. Die Methodik und die völkerrechtlichen Maßstäbe sind nicht bekannt, sodass daraus nur zu schließen ist, dass zehn Prozent möglicher ziviler Opfer in Kauf genommen wurden. Insbesondere unter Verwandten, Nachbar*innen, Zivilschutzbeamt*innen und Polizist*innen wurden falsche Identifizierungen festgestellt. Ebenso bei Personen, die zufällig denselben Namen oder Spitznamen trugen oder ein Telefon benutzten, das einem Hamas-Kämpfer gehört hatte.

Den interviewten Soldaten zufolge entschied die Armee in den ersten Kriegswochen, dass bei rangniedrigen Hamas-Militärs 5–20 zivile Todesopfer toleriert werden könnten, bei ranghohen mehr als 100 zivile Opfer. Die konkrete Zahl der tatsächlich getöteten Zivilist*innen wurde wahrscheinlich anschließend nicht überprüft.

Maschinenmoral?
Auch ein Töten auf abstrakter Ebene und mit räumlicher Distanz lässt viele Drohnenpilot*innen nicht kalt. Die technischen Systeme lösen lediglich Teile von Mitleid, von Trauer oder Hass aus den Herzen der Soldat*innen. So die Aussage eines Soldaten im Gespräch mit +972: „Der statistische Ansatz hat etwas an sich, das Soldaten an eine bestimmte Norm und einen bestimmten Standard festlegt. Bei diesen Operationen kam es zu einer unlogischen Anzahl von Bombenangriffen. Das ist in meiner Erinnerung beispiellos. Ich habe jedoch mehr Vertrauen in einen statistischen Mechanismus als in einen Soldaten, der vor zwei Tagen einen Freund verloren hat. Alle dort, mich eingeschlossen, haben am 7. Oktober Menschen verloren. Die Maschine hat es kaltherzig gemacht. Und das hat es einfacher gemacht.“

Es gibt Ansätze in der Maschinenethik, dass KI nicht nur Soldat*innen zu ethischen Entscheidungen verhelfen könnten, sondern dass unbemenschte KI-Systeme auch selbst dazu in der Lage seien, „auf dem Schlachtfeld in ethischerer Weise zu handeln als menschliche Soldaten (…). Sie werden sich in schwierigen Umständen menschlicher verhalten können als menschliche Wesen“, so der bekannte Robotiker und Pentagonberater Ronald C. Arkin.

Künstliche Intelligenz hat jedoch kein Gewissen. Für Drohnenpilot*innen oder Soldat*innen in den Einsatzzentralen wird es immer schwerer, Gewissensentscheidungen auf Basis von KI-gestützten Systemen zu treffen.

Der systemimmanenten Ungenauigkeit stehen Begriffe wie „Targeted Killing“, „Smart Bombs“ oder „Präzisionswaffen“ gegenüber. Sie verschleiern, dass die Fortschritte faktisch nicht bedeuten, dass die Waffen akkurater werden und weniger zivile Opfer töten. Im Gegenteil: Sie nehmen Soldat*innen prädiktiv, in Teilen sogar präemptiv, moralische Entscheidungen ab und führen zu einer Dehumanisierung auf Täter- und auf Opferseite. Der Begriff targeted darf daher nicht unhinterfragt in die zivilgesellschaftliche Analyse militärischer und geheimdienstlicher Praxis einfließen. Wir nutzen ihn hier trotzdem, da er eine Geschichte hat und den Bogen spannt von Big Data - Methoden wie gezielter Werbung (Ad-Targeting) zu gezieltem Töten.

War on error
Im Hightech Krieg Entscheidungen zu treffen, ist aufgrund der rasant wachsenden Datenmenge ohne Vor-Interpretationen durch KI-gestützte Systeme nicht mehr möglich. Die Werbeversprechen der Rüstungsbranche und der Glauben technologiebegeisterter Militärs und Politiker*innen, dass es unter diesen Bedingungen möglich sei, autonome, informierte und dabei auch ethische Entscheidungen zu treffen, sind aber falsch. Die Zivilgesellschaft darf nicht zulassen, dass Soldat*innen die Verantwortung für ihre Tötungsentscheidungen an Maschinen und Systeme delegieren. 

Die Verantwortung liegt natürlich nicht allein bei den einzelnen Soldatinnen und Soldaten. Die Hierarchieebenen, die Strategien entwickeln oder die politische Ziele vorgeben, tragen gemeinsam mit beteiligten Technologieunternehmen und Forschungsinstituten Verantwortung. Wir sehen hier einen Prozess der Verantwortungsdiffusion bei gleichzeitig zunehmender Technisierung und Komplexität.

Politiker*innen und Befehl Habende treffen mit dem Einsatz der Systeme eine grundlegende ethische Entscheidung. Es ist aus unserer friedenspolitischen und fachlichen Perspektive heraus dringend erforderlich zu prüfen, inwieweit Targeted Killing mit unterstützenden KI-Systemen als Kriegsverbrechen betrachtet werden muss.

Dies ist eine aktualisierte Kurzversion der Stellungnahme, die das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF), der AK gegen bewaffnete Drohnen und die Informationsstelle Militarisierung (IMI) am 29. April veröffentlicht haben: https://blog.fiff.de/content/files/2024/04/2024_04_29_Stellungnahme-lave...

Die Stellungnahme wurde u. a. von Susanne Grabenhorst, Christian Heck, Christoph Marischka und Rainer Rehak erarbeitet.

Ausgabe

Rubrik

Hintergrund

Themen

Susanne Grabenhorst ist Ärztin für Psychosomatische Medizin und Vorsitzende der deutschen Sektion der Internationalen ÄrztInnen für die Verhütung des Atomkriegs, ÄrztInnen in sozialer Verantwortung (IPPNW).
Christian Heck, Kunsthochschule für Medien Köln (KHM), Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) arbeitet im Arbeitskreis gegen bewaffnete Drohnen.