Die Digitalisierung des Krieges

Die Digitalisierung macht auch vor dem Krieg nicht halt. Zu verlockend ist für Militärs die Aussicht, nicht mehr Soldaten in die Schlacht zu schicken, sondern Maschinen. Anders als Soldaten, müssen Maschinen weder schlafen noch essen. Sie arbeiten immer mit höchster Präzision und machen keine Fehler. Tatsächlich ist die Sache aber nicht ganz so einfach – Fortschritte im Bereich intelligenter Maschinen hin oder her! So sind mit dem Einsatz von Maschinen, insbesondere von autonom agierenden Kriegsmaschinen, vielfältige, v. a. ethische Fragestellungen verknüpft. Fragestellungen, auf die es bis heute kaum zufriedenstellende Antworten gibt.

Schon heute zeigt sich: Nicht mehr Menschen, sondern Algorithmen entscheiden auf den Schlachtfeldern der Zukunft über Leben und Tod. Wie wird beispielsweise entschieden, ob ein intelligentes Waffensystem schießt oder nicht? Wie unterscheidet ein Waffensystem zwischen einer Kampfsituation und einer Gefechtspause? Wie zwischen gegnerischen Waffensystemen und gegnerischen Soldaten? Wie zwischen fremden Soldaten und Zivilisten?

Maschinen können per se mit Uneindeutigkeit erst einmal nicht umgehen. Ambivalenz ist für Maschinen kein intuitives Konzept. Maschinen folgen typischerweise deterministischen Handlungsvorgaben, den Algorithmen, mit denen sie programmiert wurden. Gerade in Kriegs- und Gefechtssituationen ist Ambivalenz aber allgegenwärtig. Wenn jetzt Kriegsmaschinen selbständig entscheiden und handeln sollen, also nicht mehr, wie es bei Drohnen heute noch immer der Fall ist, von Menschen gesteuert und kontrolliert werden, wird es schwierig.

Tödliche Autonome Waffensysteme

Tödliche autonome Waffensysteme(englisch: „Lethal Autonomous Weapon Systems“) sind Waffensysteme, die Ziele ohne menschliches Zutun identifizieren und attackieren. Sie analysieren dazu fortwährend ihre Umgebung, können frei in ihrem Einsatzgebiet navigieren und entscheiden am Ende selbst über den Einsatz von Gewalt. Wenig verwunderlich, dass umgangssprachlich häufig von Killerrobotern die Rede ist.

Was autonome tödliche Waffensysteme anbelangt, werden häufig zwei Varianten unterschieden (je nachdem welche Rolle der Mensch in der Kontrolle des Waffensystems spielt) [2, S. 157]:

On-the-Loop-Systeme: Das Waffensystem wurde von einem Menschen programmiert, kann aber in Echtzeit unabhängig von menschlichem Eingreifen operieren. Der Mensch überwacht aber das Waffensystem und kann ggf. eingreifen.

Out-of-the-Loop-Systeme: Solche Systeme verhalten sich wie On-the-Loop-Systeme, allerdings kann der Mensch das Waffensystem, sobald dieses im Einsatz ist, weder kontrollieren noch eingreifen.

Führend bei der Entwicklung tödlicher autonomer Waffensysteme sind heute die Vereinigten Staaten von Amerika, Großbritannien, China, Israel, Russland und Südkorea. Und es sind auch genau diese Länder, die sich offensiv gegen eine Regulierung wehren.

Beispiele

Ein Beispiel eines tödlichen autonomen Waffensystems ist die US-amerikanische Drohne „Perdix“. Die Idee (vgl. Video): Von Kampfflugzeugen im Flug abgeworfene Drohnen dieses Typs formieren sich autonom zu einem geordneten Schwarm und fliegen dann ohne weitere menschliche Eingriffe eine vorprogrammierte Route ab. Zwar werden Perdix-Drohnen bisher nur zur Überwachung genutzt, eine Bewaffnung ist aber problemlos möglich. Das Ergebnis ist ein Drohnen-Schwarm, der im Formationsflug ein Ziel angreift und ausschaltet.

Video: U.S. Military’s Super Weapon PERDIX Demonstration.

Ein anderes tödliches autonomes Waffensystem, SGR-A1, wurde von Samsung entwickelt. Mit Hilfe von Kameras und Nachtsichtgeräten erkennt SGR-A1 Ziele, z. B. feindliche Soldaten oder Fahrzeuge, auf eine Entfernung von bis zu vier Kilometern und kann diese Ziele dann mit leistungsstarken Maschinengewehren selbständig angreifen. Das System wurde für den Einsatz an der innerkoreanischen Grenze entwickelt, ist dort aber bis heute nicht im Einsatz. Freund und Feind sicher genug voneinander zu unterscheiden ist bislang nicht möglich. So ist das Tragen von Waffen oder bestimmten Uniformen kein ausreichendes Kriterium. Was auch, wenn der gegnerische Soldat eine weiße Fahne schwenkt? Ein Kriegsroboter, der einen Feind erschießt, der sich ergeben will, verhält sich klar völkerrechtswidrig.

Video: The Threat of AI Weapons.

Ein drittes Beispiel eines tödlichen (halb-)autonomen Waffensystems ist DOGO, ein Roboter des israelischen Roboterherstellers General Robotics zur Unterstützung von Soldaten im Häuserkampf. Der Roboter soll anstelle von Soldaten gefährliche Räume auskundschaften, um Ecken gucken oder Keller absichern. Das Miniaturkettenfahrzeug passt in den Rucksack eines Soldaten und wird per drahtloser Videofernbedienung auf einem Tablet gesteuert. Auf dem Rücken des Geräts ist eine halb automatische, kompakte Glock-26-9-mm-Pistole montiert, die per Schwenkhalterung schräg nach oben zielen kann. Bislang sind Bodenroboter vor allem als Minenentschärfer oder Lastenträger im Einsatz.

Argumente für Killerroboter

Es ist logisch, dass Militärs fasziniert von den Vorteilen und Möglichkeiten der Digitalisierung des Krieges sind. Immer wieder werden die folgenden Argumente genannt (in Anlehnung u. A. an [1, S. 241ff]):

    1. ROBOTER SIND ERFOLGREICHER. Maschinen müssen nicht schlafen. Sie müssen nicht essen. Eine langwierige Ausbildung ist nicht erforderlich und arbeiten trotzdem immer mit höchster Präzision ohne Fehler.
    1. ROBOTER WERDEN SICH ETHISCHER ALS MENSCHEN VERHALTEN. Gerade in Kriegen begehen Menschen Verbrechen und Gräueltaten. Befürworter von tödlichen autonomen Waffensystemen argumentieren nun, dass Maschinen, denen ethisches Verhalten einprogrammiert wurde, sich dadurch im Krieg ethischer als Menschen verhalten. Die Frage ob Maschinen sich ethisch verhalten können wird weiter unten aufgegriffen.
    1. ROBOTER KÖNNEN GEGEN ROBOTER KÄMPFEN. Ein Argument, welches sich in der Theorie gut anhört. So wie es früher große Panzerschlachten gab, könnten zukünftig auf fest definierten Schlachtfeldern Roboter aufeinander losgelassen werden. Tatsächlich sind Kriege und bewaffnete Konflikte heute aber oft asymmetrisch – häufig sind die Gegner im Untergrund operierende Terroristen oder Schurkenstaaten.
  1. AUTONOME WAFFEN GIBT ES BEREITS UND SIE WERDEN BENÖTIGT. In Kriegen gibt es häufig Situationen, in denen in Bruchteilen einer Sekunde Entscheidungen getroffen werden müssen. Das Argument: Menschen können in bestimmten Situationen aufgrund der kognitiven Einschränkungen des Gehirns gar nicht reagieren. Ein Beispiel ist die sich völlig autonom selbst steuernde Raketenabwehrkanone Phalanx auf Schiffen. Menschen könnten die Steuerung nicht übernehmen, selbst wenn sie es wollten.

Video: Die Raketenabwehrkanone Phalanx in Aktion.

  1. WAFFEN ZU VERBIETEN FUNKTIONIERT NICHT. Eines der klassischsten Argumente! Gleichzeitig aber auch eines der am wenigsten gültigen Argumente. Denn es gibt genügend Beispiele von Waffen, die erfolgreich verboten wurden, z. B. Laser-Blendwaffen.

Kritik autonomer tödlicher Waffensysteme

Tödliche autonome Waffensysteme müssen gleich aus verschiedenen Gründen kritisch hinterfragt werden – trotz der aus rein militärischer Sicht vielleicht überzeugenden Vorteile.

Zu bedenken ist (in Anlehnung u. A. an [1, S. 236ff]):

Tödliche autonome Waffensysteme werden die Hemmschwelle für bewaffnete Konflikte dramatisch senken. Jeder Aggressor riskiert zunächst keine Menschenleben, sondern schickt zunächst nur Maschinen in den Krieg. Keine Frage: Da beginnt es sich leichter zu streiten!

Es ist zu bedenken, dass der Einsatz autonomer tödlicher Waffensysteme uns Menschen von den Gräueln des Krieges entfremdet. Krieg wird zum Videospiel. Dazu äußert sich auch die Technikphilosophin Jutta Weber im Interview mit der ZEIT (konkret bezogen auf den Einsatz von Drohnen): „Gründliche Untersuchungen gibt es bisher kaum. Aber zwei extreme Effekte deuten sich an: einerseits Verharmlosung, denn die Steuerung ist mehr oder weniger identisch zur Schnittstelle von Computerspielen, und es fehlt der Kontakt zum Kampfgebiet. Andererseits Drastik, denn die ausgezeichneten Kameras der Drohnen liefern Bilder, die ein Soldat wohl nie zu Gesicht bekäme. Die Piloten sehen sehr genau die Wirkung ihrer Waffen.

Für Kriegshandlungen MUSS irgendjemand verantwortlich sein oder verantwortlich gemacht werden können. Roboter können jedoch nicht verantwortlich gemacht werden. Roboter können auch nicht bestraft werden. Auch die Bestrafung der Programmierer eines autonomen tödlichen Waffensystems ist juristisch nicht begründbar. Genau so wenig wie die rechtlich festgeschriebene „Vorgesetztenverantwortlichkeit“. Diese bedeutet: ein Vorgesetzter kann für Vergehen seiner Untergebenen zur Rechenschaft gezogen werden, wenn er es versäumt, einen Vorstoß entweder zu vermeiden oder zu bestrafen). Auch das funktioniert hier aber offensichtlich nicht. Denn es ist ja gerade die Aufgabe eines autonom handelnden tödlichen Waffensystems, dass der Mensch die Kontrolle abgibt.

Nicht zu unterschätzen ist auch, dass tödliche autonome Waffensysteme immer billiger werden – und damit auch für Personenkreise oder Staaten erschwinglich werden, die sich heute noch keine modernste Waffentechnik leisten können. War früher also v. a. die wirtschaftliche Leistungsfähigkeit eines Staates wichtig, um eine große und leistungsstarke Armee aufzubauen, wird das zukünftig weniger wichtig. Bereits heute werden z. B. im syrischen Bürgerkrieg handelsübliche Drohnen mit einem Smartphone und kleinen Bomben zu Mini-Kampfdrohnen umgebaut. Solche Drohnen handeln zwar nicht völlig autonom, weil sie noch von Menschen am Boden gesteuert werden – aber es ist offensichtlich, dass leistungsstarke Waffen zu unschlagbar günstigen Preisen verfügbar werden. Dadurch wird sich auch das zerbrechliche Gleichgewicht der Kräfte in der Welt nachhaltig verändern.

Können Maschinen überhaupt ethisch handeln?

1942 formulierte der Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ drei Grundregeln für das Verhalten von Robotern, seine „Grundregeln des Roboterdienstes“: 1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zu Schaden kommen lassen. 2. Ein Roboter muss den Befehlen des Menschen gehorchen, es sei denn, diese stehen im Widerspruch zum ersten Gesetz. 3. Ein Roboter muss seine eigene Existenz schützen, solange dies nicht mit dem ersten oder zweiten Gesetz im Konflikt steht. Diese drei Regeln bilden seitdem das konzeptionelle Fundament vieler, vor allem literarischer Auseinandersetzungen mit der Frage, ob Menschen vor Robotern sicher sind. Eine durchaus relevante Frage, schaut man sich Entwicklungen in der Robotik an (vgl. Video).

Video: Der Atlas-Roboter von Boston Dynamics.

Die Regeln wirken zunächst simpel und scheinbar effektiv. „Könnte passen!“ schießt es einem im ersten Moment durch den Kopf. Tatsächlich aber zeigt Asimov unmittelbar in seiner Geschichte, dass schon diese drei Regeln schnell in Konflikt stehen können. In seiner Geschichte, die auf dem Merkur spielt, soll ein Roboter für zwei Menschen lebenswichtiges Selen sammeln. Nahe des Selenvorkommens herrscht jedoch ein Umweltzustand, der die Hülle des Roboters angreift. Gemäß Regel 3 muss sich der Roboter schützen. Gleichzeitig will und muss er aber gemäß Regel 2 den Befehl ausführen und Selen sammeln. Was also tun? In der Geschichte fährt der Roboter im Kreis und bringt dadurch die Menschen in Lebensgefahr.

Es ist also nicht so einfach, wie es auf den ersten Blick scheint – wie ich auch anderer Stelle in diesem Blog im Artikel „Maschinen und Moral: Ein Widerspruch! Oder nicht?“ diskutiere.

Wie umgehen mit dem Thema?

Im November 2017 diskutierten in Genf das erste Mal UNO-Rüstungsexperten über ein mögliches Verbot von autonomen Waffensystemen, insbesondere Angriffswaffensystemen. Durchsetzen könnte man ein Verbot über ein zusätzliches Protokoll der „Konvention über den Einsatz bestimmter konventioneller Waffen“ von 1980. Bisherige Protokolle beschränken den Einsatz von Waffen, die nicht entdeckbare Splitter in Körpern hinterlassen, sowie von Landminen und Sprengfallen, Brandwaffen, blind machenden Laserwaffen. Bis November 2018 fordern bislang 26 Staaten ein völkerrechtlich verbindliches Abkommen zum Verbot von Entwicklung, Produktion, Besitz, Weitergabe und Einsatz von autonomen Waffensystemen. Im November 2019 soll weiter diskutiert werden.

Ebenfalls in 2017 formulierten über 100 Technologieunternehmer, die Geld in Künstliche Intelligenz und Robotik stecken, diese Forderung in einem Brief an die Vereinten Nationen. Gewarnt wird insbesondere vor einer „dritten Revolution der Kriegsführung“. So könnten diese Waffen die Kriegführung so verändern wie das Schießpulver im Spätmittelalter und die Atomwaffen am Ende des Zweiten Weltkriegs. Zuletzt haben sich im Juli 2018 auf der International Joint Conference on Artificial Intelligencemehr als 2500 KI-Wissenschaftler der Forderung der Unternehmer angeschlossen. Wortwörtlich heißt es in der Erklärung: „Wir werden uns nicht an der Entwicklung, Herstellung, am Handel und an der Benutzung von tödlichen autonomen Waffensystemen beteiligen und rufen Technologiefirmen, Regierungen, Politiker und andere Menschen auf, es uns gleich zu tun.

Die Organisation „Human Rights Watch“ (HRW) spricht sich in einem Bericht ebenfalls für eine Ächtung autonomer Waffensysteme aus, argumentiert aber anders. So verletzen entsprechende Waffensysteme die Martens-Klausel, also die Forderung des humanitären Völkerrechts, dass neue Technologien nach den „Grundsätzen der Menschlichkeit“ und dem „Urteil des öffentlichen Gewissens“ beurteilt werden sollen. Demnach wären autonome tödliche Waffensysteme schon heute verboten. Ähnlich argumentiert auch der englische Roboterforscher Noel Sharkey, der gemeinsam mit Kollegen das International Committee for Robot Arms Control gegründet hat.

Video: The Dawn of Killer Robots.

Literatur

[1] Toby Walsh: „It’s alive: Wie künstliche Intelligenz unser Leben verändern wird“. Edition Körber, 2018.

[2] Catrin Misselhorn: „Grundfragen der Maschinenthik“. Reclam, 2018.