Fluchtpunkt Autonomie

Die Gretchenfrage der Robotik

von Hans-Arthur Marsiske

Der erste Mensch, der durch einen Roboter zu Tode kam, war Robert Williams. Er wurde am 25. Januar 1979 in einer Gießerei in Flat Rock (Michigan) von einem Roboterarm erschlagen, der die Orientierung verloren hatte. Zwei Jahre später stieß ein Roboter bei Wartungsarbeiten den Japaner Kenji Urada in eine Schleifmaschine. Es gab in den Folgejahren noch mehr Tote, doch auch das waren alles Unfälle.

Ob der Absturz einer iranischen Linienmaschine am 3. Juli 1988 als Unfall gelten kann, ist weniger klar. Zumindest steckte aber wohl keine Absicht dahinter, als der US-Kreuzer Vincennes den mit 290 Passagieren besetzten Airbus des Fluges Iran Air 655 abschoss. Das damals noch recht neue automatische Schiffsverteidigungssystem Aegis hatte das zivile Flugzeug irrtümlich als iranischen Kampfjet identifiziert – und kein menschliches Besatzungsmitglied wagte es, dem Computer zu widersprechen.

Seit Beginn dieses Jahrtausends sind die meisten der durch Roboter verursachten Todesfälle jedoch eindeutig keine Unfälle mehr. Die Namen der Opfer bleiben in der Regel unbekannt. Aber es gab Tote, als am 4. Februar 2002 eine von einer MQ-1 Predator-Drohne abgefeuerte Hellfire-Rakete einen Autokonvoi in Afghanistan traf, unter dessen Insassen ein al-Qaida-Anführer vermutet wurde. Im Jemen fiel am 3. November desselben Jahres der ebenfalls als al-Qaida-Führer verdächtigte Qaed Senyan al-Harthi einem Drohnenangriff zum Opfer – sowie fünf weitere (namenlose) Personen, die ihn in einem Jeep begleiteten. Die britische Fachzeitschrift Jane‘s Defence Weekly erkannte darin bereits damals den Beginn der Roboter-Kriegsführung (Alexander 2002). Im Verlauf einer Dekade sind aus der Handvoll Drohnen, mit denen die USA in die Kriege in Afghanistan und im Irak zogen, weit über 10.000 Roboter im ständigen Einsatz geworden (Dabringer 2010, 74f.; vgl. Singer 2009, 32ff.).

Osama bin Laden ist nicht von einem Roboter getötet worden. Ein Angriff mit einer Drohne wäre zwar möglich gewesen, hätte aber zu viel Raum für Unsicherheit darüber gelassen, ob Bin Laden wirklich getötet wurde. Dennoch markiert die Kommandoaktion vom 2. Mai 2011 einen wichtigen Etappensieg in einem Konflikt, der insbesondere seit dem Amtsantritt von US-Präsident Barack Obama mit massiver Unterstützung durch Roboter geführt wird. Das Bild, das die US-Regierung dazu veröffentlichte, unterstreicht diese Bedeutung, zeigt es doch die politische Führung in der gleichen Situation wie Drohnenpiloten: In Washington D.C. verfolgen Obama und seine engsten Berater auf einem Bildschirm in Echtzeit das Geschehen in zehntausend Kilometer Entfernung. Diese Regierung setzt im Krieg gegen den Terror massiv auf Roboter, das ist eine wichtige Botschaft des Bildes.

Die meisten Roboterangriffe werden derzeit immer noch in der pakistanischen Bergregion Waziristan im Grenzgebiet zu Afghanistan geflogen. Über die dortige Situation am Boden sind zuverlässige Informationen nur sehr schwer zu bekommen. Wie viele unschuldige Opfer die Angriffe bisher gefordert haben, weiß niemand genau. Die Schätzungen gehen weit auseinander, auch weil es für die Einstufung als „Zivilist“ oder „Militanter“ keine verbindlichen Definitionen gibt. Bei denjenigen, die bislang von Drohnenattacken verschont geblieben sind, hat das Leben unter der ständigen Bedrohung zu einer massiven Verbreitung psychischer Störungen geführt.

Verzerrte Wahrnehmungen
Was den tatsächlichen Attacken vorausgeht, ist der Blick auf die Ziele. Er zwingt Menschen und ihr Verhalten in Kategorien von Normalität und Abnormität und strebt danach, jegliche Privatheit und Intimsphäre aufzulösen. Die Strukturen der Städte des Orients und der Südhalbkugel werden mehr und mehr als Störungen bei der Zielerfassung wahrgenommen, denen die westlichen Streitkräfte mit einer wahren Flut von Sensoren entgegenwirken wollen. Es ist eine extrem verzerrte Wahrnehmung fremder Kulturen, die sich längst nicht mehr auf den Bereich des Militärs beschränkt, sondern auch Eingang in andere kulturelle Bereiche wie etwa Computerspiele gefunden hat.

Gewalt prägt auch den umgekehrten Blick, den der Menschen auf die Roboter. Der erste Roboter, der im Jahr 1921 unter dem Titel L’uomo meccanico („Der mechanische Mann“) auf der Kinoleinwand erschien, war bereits eine Kampfmaschine. Und der Höhepunkt der Geschichte bestand darin, dass zwei dieser furchterregenden Roboter aufeinander einprügelten, dabei das Mobiliar eines Opernhauses zertrümmerten und damit das Grundmuster für zahllose spätere Roboterfilme prägten. Es ist kein Zufall, dass solche Ideen gerade in diesen Jahren aufkamen: Das traumatische Erlebnis des Ersten Weltkriegs, die Erfahrung von Millionen Soldaten, zum willenlosen Anhängsel einer übermächtigen Kriegsmaschinerie degradiert worden zu sein, fand hier seinen künstlerischen Ausdruck. In den brillant choreographierten Verfolgungsjagden der Terminator-Filme sind heute noch die Echos der Stahlgewitter zu spüren, die 1914 bis 1918 über die Schützengräben tobten und die moderne Idee des Roboters hervorbrachten.

Trotz der sehr realen Erfahrungen, die hier ihren künstlerischen Ausdruck finden, werden diese Filme aus dem öffentlichen Diskurs über Militärroboter zumeist ausgeblendet. Beim ersten Workshop des International Committee for Robot Arms Control (ICRAC) im September 2010 in Berlin äußerten mehrere Redner die Besorgnis, mit Terminator-Visionen in einen Topf geworfen werden zu können. Zugleich schmückten Szenenbilder aus diesen und ähnlichen Filmen aber etliche PowerPoint-Präsentationen. Und auf dem Weg ins Hotel zitierten Workshop-Teilnehmer aus dem legendären philosophischen Dialog mit der intelligenten Bombe aus John Carpenters Dark Star (USA 1974) – einem Film, der wiederum als Namensgeber für das von Lockheed Martin und Boeing entwickelte, hoch fliegende unbemannte Flugzeug RQ-3 DarkStar diente.

„Robotergesetze“ außer Kraft?
Fiktive Szenarien haben unser Bild vom Roboter nachhaltig geprägt und prägen es immer noch. Der Begriff „Roboter“ selbst stammt aus der Science-Fiction. Karel Capek verwendete ihn erstmals 1921 in seinem Drama R.U.R. Kaum eine Robotikkonferenz vergeht, ohne dass jemand die von dem Science-Fiction-Autor Isaac Asimow formulierten drei „Robotergesetze“ zitiert, die das Verhältnis zwischen Menschen und Robotern regeln sollen: Ein Roboter darf keinen Menschen verletzen; er muss den Befehlen eines Menschen folgen, sofern diese nicht mit dem ersten Gesetz kollidieren; er muss seine Existenz schützen, solange dies nicht mit dem ersten und zweiten Gesetz kollidiert. Dennoch scheint nicht nur unter Wissenschaftlern und Ingenieuren Unsicherheit darüber zu herrschen, wie mit diesen Bildern umgegangen werden soll.

Sie wie bisher weitgehend zu ignorieren kann nicht der richtige Weg sein. Denn die Science-Fiction stellt zumindest die richtigen, unangenehmen Fragen. Wie es sich anfühlt, wenn ein Roboter Macht über Leben und Tod hat, ist zumindest in westlichen Ländern derzeit nur im Kino zu erfahren. Das wird indessen nicht mehr lange so bleiben: Roboter, die autonom über den Einsatz tödlicher Waffen entscheiden, erwartet das US-Militär in zwanzig bis dreißig Jahren (vgl. DoD 2005, 73; DoD 2009, 18, 30). Die unangenehmen Fragen stellen sich nicht mehr nur auf der Leinwand.

Es könnte sein, dass sich autonome Kampfmaschinen strenger an ethische Regeln halten als menschliche Soldaten. Es könnte auch sein, dass die Entwicklung langsamer fortschreitet als erwartet. Doch darauf verlassen sollten wir uns nicht. Künstliche Intelligenz entwickelt sich nicht kontinuierlich. Sie erwächst aus einem Zusammenspiel vieler verschiedener Technologien. Wenn mehrere solcher Teilbereiche zur gleichen Zeit die Einsatzreife erreichen, kann es zu regelrechten Entwicklungssprüngen kommen. Es gibt points of no return, Technologiesprünge, die nicht mehr rückgängig gemacht werden können. Niemand kann im Voraus sagen, wann sie erreicht sind.

Auch die Autonomie wird bei Robotern nicht irgendwann eingeschaltet, sie kommt schleichend, beginnt bei der Navigation und Flugkontrolle, geht weiter bei der Vorverarbeitung der Sensordaten, der Steuerung der Aufmerksamkeit, der Auswahl der Ziele. Auch in den Roadmaps des US-Verteidigungsministeriums verläuft die Entwicklung zu luftkampffähigen Robotern als schrittweise Erweiterung der Fähigkeiten: Aus unbewaffneten werden zunächst bewaffnete Aufklärer, die bewegliche Ziele am Boden angreifen können. Als Nächstes sollen sie die gegnerische Luftverteidigung ausschalten, dann auch gepanzerte Stellungen zerstören können, bis sie schließlich reif sind für den Kampf gegen ihresgleichen in der Luft. Den aber können sie nur autonom bestreiten, da die Entscheidungen über den Waffeneinsatz in Sekundenbruchteilen gefällt werden müssen – per Fernsteuerung ist das nicht zu realisieren (vgl. DoD 2005, 74).

Gegenwärtig wird die Entwicklung der Militärroboter allein durch die Dynamik des Wettrüstens vorangetrieben. Verlangsamen ließe sich das Tempo nur durch internationale Vereinbarungen zu Rüstungsbegrenzungen. Deren Durchsetzung wird jedoch dadurch erschwert, dass gerade westliche Staaten, die bislang solche Abkommen mit am stärksten vorangetrieben haben, sich von der Robotisierung des Militärs besonders angezogen fühlen. Niklas Schörnig von der Hessischen Stiftung für Friedens- und Konfliktforschung sieht dafür auch kulturelle Gründe: Roboter seien im Westen einfach „cool“.

Umwälzungen im menschlichen Selbstverständnis
Daher muss das Thema auch und vor allem auf der kulturellen Ebene verhandelt werden. Roboter werden unser Leben verändern. Wie intelligent sie noch werden können und wie lange das dauern wird, weiß niemand. Aber Umwälzungen im menschlichen Selbstverständnis sind unvermeidlich.

Der britische Mikrobiologe Charles Cockell hat vorgeschlagen, bei der Suche nach außerirdischem Leben das Prinzip „höchster moralischer Relevanz“ zu verfolgen. Jede Lebensform, auf die wir stoßen, sei sie noch so unscheinbar und vermeintlich „primitiv“, sollte bis zum ausdrücklichen Beweis des Gegenteils als intelligent gelten (vgl. Cockell 2007).

Das empfiehlt sich in abgewandelter Form auch für Roboter: Bis zum Beweis des Gegenteils sollten wir davon ausgehen, dass sie sich zu komplexen, leidensfähigen Wesen entwickeln können, die dem Menschen weit überlegen sind. Wir schaffen die Grundstrukturen der künstlichen Lebensformen, mit denen alle künftigen Generationen leben werden. Das sollte ruhig und überlegt geschehen, nicht im atemlosen Wettstreit um die kürzeste sensor-to-shooter-kill-chain und andere kurzfristige militärische Vorteile.

Literatur
Alexander, Doug (2002): Robotic Warfare. The Tribune, 8. April 2002. http://www.tribuneindia.com/2002/20020408/login/main1.htm

Cockell, Charles S. (2007): Space on Earth. Saving our World by seeking others. Macmillan

Dabringer, Gerhard (Hg.) (2010): Ethical and Legal Aspects of Unmanned Systems. Interviews. Institut für Religion und Frieden, Wien.

DoD [Department of Defense] (2005): Unmanned Aircraft Systems Roadmap 2005-2030.

http://www.fas.org/irp/program/collect/uav_roadmap2005.pdf

DoD [Department of Defense] (2009): FY 2009-2034 – Unmanned Systems Integrated Roadmap.

http://www.acq.osd.mil/psa/docs/UMSIntegratedRoadmap2009.pdf

Singer, Peter W. (2009): Wired for War. The Robotics Revolution and Conflict in the Twenty-first Century. New York (Penguin Press).

Bei dem Beitrag handelt es sich um eine gekürzte Fassung des gleichnamigen Beitrags in: Hans-Arthur Marsiske (Hrsg.) (2012) Kriegsmaschinen – Roboter im Militäreinsatz. Hannover:Heise.

Ausgabe

Rubrik

Schwerpunkt
Hans-Arthur Marsiske, geb. 1955, hat an der Universität Hamburg Soziologie studiert und wurde im Fach Sozial- und Wirtschaftsgeschichte zum Dr. phil. promoviert. Er lebt und arbeitet als freier Autor in Hamburg und beschäftigt sich derzeit hauptsächlich mit den Themenbereichen Robotik, Künstliche Intelligenz, Weltraum, Feuer. Letzte Buchveröffentlichungen: Heimat Weltall -- Wohin soll die Raumfahrt führen? (Suhrkamp, 2005); Kriegsmaschinen -- Roboter im Militäreinsatz (Heise, 2012, als Herausgeber).