Eine Aufklärungsdrohne vom Typ "Heron" beim Start vom Flugplatz in Mazar-e Sharif in Afghanistan Foto: Bundeswehr

Eine Aufklärungsdrohne vom Typ "Heron" beim Start vom Flugplatz in Mazar-e Sharif in Afghanistan Foto: Bundeswehr

02.06.2017
Gábor Paál

Intelligente Waffen: Wie autonom dürfen Kampfsysteme sein?

Die technische Entwicklung intelligenter, automatisierter und sogar autonomer militärischer Systeme ist nicht mehr zu stoppen. In dem Moment, in dem diese Systeme offensiv wirken, muss die Frage geklärt werden, wie viel menschliche Kontrolle beim Einsatz tödlicher Waffen angemessen ist.

Berlin. Killerroboter – darunter kann sich jeder etwas vorstellen. Den Begriff findet man häufig in Medienberichten und in den Appellen von Nichtregierungsorganisationen. Der Begriff „Killer­roboter“ weckt fraglos falsche Assoziationen: Er erinnert an isolierte humanoide Kampfmaschinen à la „Terminator“. Technisch ist er jedoch nicht falsch, denn in der internationalen Debatte um eine Regulierung geht es genau darum: um autonome Systeme, die töten können, abgekürzt LAWS: Lethal autonomous weapon systems.

Die Definitionsfrage – was ist mit Autonomie gemeint? – nimmt dabei eine wichtige Rolle ein. Schon daran hätten die ersten Verhandlungsschritte scheitern können: Wie viel menschliche Kontrolle ist noch im System? Ab welchem Automatisierungsgrad kann man von Autonomie sprechen?

Die Übergänge sind schließlich fließend – ähnlich wie bei Autos. Dort beginnt die Automatisierung mit Fahrassistenzsystemen (Spurassistent, Parkassistent, Tempomat), die eine Teilkontrolle über das Fahrzeug übernehmen.

Es geht weiter mit teil-, hoch- und vollautomatisierten Systemen, bei denen der Fahrer in weitgehend berechenbaren Umgebungen (Autobahn, Parkhaus) die Steuerung dem Fahrzeug überlässt, sie aber in komplexen Umgebungen (Stadtverkehr, Straßenkreuzungen) wieder übernimmt. Als „autonom“ gilt ein Auto erst, wenn es eine beliebige Strecke von Tür zu Tür ohne menschlichen Eingriff zurücklegt.

Der Versuch, diese Kriterien auf Waffensysteme zu übertragen, stößt jedoch an Grenzen: Beim Auto ist die Aufgabe klar benennbar: der sichere Transport von A nach B. Die Rahmenbedingungen sind ansonsten klar: Es gibt ein wohldefiniertes Straßennetz und definierte Verkehrsregeln. Der Kontext eines Waffeneinsatzes ist ein ganz anderer: Autonome Waffen operieren in einer feindlich gesinnten Umgebung. Die Prämissen und Prioritäten können variieren. Jede Situation verlangt neue grundlegende Entscheidungen über die jeweils aktuelle Aufgabe: Waffen sind autonom, wenn sie unter anderem in der Lage sind, sich ihre Ziele selbst zu suchen.

Ein paar Beispiele


Drohnen sind unbemannt – aber deshalb noch nicht autonom, solange sie von einem „Piloten“ in einem Kontrollzentrum ferngesteuert werden.

Heutige Flugabwehrsysteme wie MANTIS erkennen anfliegende feindliche Raketen weitgehend eigenständig. Wenn sie ihre Granaten abfeuern, werden Zeitpunkt und Richtung von der Software berechnet, nicht vom Menschen. Doch ist es ein Offizier, der sie scharfstellt und somit auch entscheidet, dass eine Situation eingetreten ist, in der der Einsatz gerechtfertigt ist. Die Bundeswehr selbst spricht hier deshalb von einem „hoch automatisierten“ System. Andere würden hier schon von „autonom“ sprechen, da MANTIS bestimmte „kritische Funktionen“ (wie eben Identifizierung und Angriff von Zielen) selbstständig ausführt – andernfalls würde man „Autonomie“ nur auf Systeme beschränken, die nicht einmal einer Aktivierung durch den Menschen bedürfen.

Dass sich Flugabwehrsysteme immer stärker in Richtung Autonomie bewegen, ist nichts Neues. Da es sich bei ihnen um Defensivwaffen handelt, hat diese Entwicklung jedoch keine Grundsatzdiskussion ausgelöst. Die Appelle, autonome Waffen zu ächten, ebenso wie die internationalen Regulierungsbemühungen konzentrieren sich viel mehr auf „tödliche autonome Waffensysteme“ (LAWS) beziehungsweise „offensive autonome Waffen“.

Gemeint wäre damit zum Beispiel die von Israel entwickelte Kamikaze-Drohne „Harop“, auch Harpy 2 genannt. Eine Drohne, die nach Herstellerangaben ihre Ziele selbst (wenn auch mit Hilfe der Daten anderer Aufklärungsdrohnen) aussuchen, ansteuern und zerstören kann. Gedacht ist die „Harop“ vor allem dafür, gegnerische Flugabwehrsysteme auszuschalten. Ihre Sensorik erkennt die von ihnen ausgesandten Radarwellen und kann sie somit als Ziel identifizieren. Ende März 2016 kam sie erstmals im Konflikt um die Provinz Berg-Karabach zum Einsatz – wobei unklar ist, wie autonom sie in diesem konkreten Einsatz betrieben wurde. Sie traf dort den Berichten zufolge kein Flugabwehrsystem, sondern einen Bus mit gegnerischen Soldaten.

Um die Schwierigkeiten zu umgehen, Autonomie zu definieren, wird bei den internationalen Regulierungsversuchen die Frage meist andersherum gestellt. Nicht: Was kann die Waffe? Sondern: Wie viel Kontrolle hat der Mensch noch? Die Schlüsselbegriffe lauten hier „angemessen“ (appropriate) und „bedeutsam“ (mea­ningful). Einen angemessenen menschlichen Einfluss forderte etwa die Direktive 3000.09 des Pentagons: „Autonomous and semi-autonomous weapon systems shall be designed to allow commanders and operators to exercise appropriate levels of human judgment over the use of force.“

Diese Direktive wurde in der Öffentlichkeit als ein Moratorium für die Entwicklung von autonomen Waffensystemen interpretiert. In Wahrheit lässt die Direktive einen großen Interpretationsspielraum: „In bestimmten Situationen – könnte man argumentieren – ist keine menschliche Kontrolle angemessen“, erläutert der Politikwissenschaftler Frank Sauer.
Befürworter einer Ächtung fordern daher von autonomen Waffen eine bedeutsame menschliche Kontrolle. „Bedeutsam“ suggeriert, dass noch jemand da ist, der die (humanitäre und völkerrechtliche) Bedeutung einer Entscheidung erfasst.

Die Mitgliedsstaaten der Convention on Certain Conventional Weapons haben bisher aber noch nicht über ein Verbot verhandelt. Sie haben lediglich den formalen Verhandlungsprozess eingeleitet, der im August mit einem Treffen von Regierungsvertretern offiziell beginnt. Die Diskussion über „appropriate“ versus „meaningful“ spielte auf dem Weg dorthin eine erhebliche Rolle, wie auch aus dem Abschlusspapier des informellen Expertentreffens im April 2016 in Genf hervorgeht.

Die Formulierung „meaningful human con­trol“ ließ sich jedoch nicht durchsetzen. Stattdessen empfiehlt das Papier, die Regierungsvertreter sollten in den nun anstehenden Gesprächen unter anderem darüber nachdenken, wie viel menschliche Beteiligung beim Einsatz tödlicher Waffen „angemessen“ sei.