Broschüre: Verbesserungen durch das „Artikelgesetz Zeitenwende“
Worauf es für Senioren ankommt
Verbandspolitik am Puls der Zeit: Medialer Aufschlag des DBwV
Verbesserungen durch das Artikelgesetz Zeitenwende und die flankierenden Verordnungen
Kompass Zukunft – Frauen stärken Personal
30 Jahre Genozid von Srebrenica
Deutschland und die NATO: 70 Jahre Bündnissolidarität mit Festakt gefeiert
„Die Zeitenwende in der Zeitenwende“
Anpassung der Geldleistungen nach dem Soldatenentschädigungsgesetz zum 1.Juli 2025
Soldatentag bei Thales Deutschland in Wilhelmshaven
Bundesweite Job- und Bildungsmesse für Soldaten
Erfahrungsaustausch zwischen Bundeswehr und Wirtschaft
Bundestag verlängert Mandate für drei Auslandseinsätze
Bundestag berät über drei Auslandseinsätze
Schweres Gewusel im Kopf
Tagung der Themenverantwortlichen Auslandseinsatz: Eine Neuausrichtung für die Zukunft
Veteraninnen und Veteranen für „Musikfest der Bundeswehr" gesucht
Rehabilitation – zurück in die Truppe
„Veteranen schreiben Geschichte“ – Autorenpreis Veteranenliteratur erstmals verliehen
Bundesweite Feiern zum Nationalen Veteranentag – der BundeswehrVerband war dabei
Eine Aufklärungsdrohne vom Typ "Heron" beim Start vom Flugplatz in Mazar-e Sharif in Afghanistan Foto: Bundeswehr
Die technische Entwicklung intelligenter, automatisierter und sogar autonomer militärischer Systeme ist nicht mehr zu stoppen. In dem Moment, in dem diese Systeme offensiv wirken, muss die Frage geklärt werden, wie viel menschliche Kontrolle beim Einsatz tödlicher Waffen angemessen ist.
Berlin. Killerroboter – darunter kann sich jeder etwas vorstellen. Den Begriff findet man häufig in Medienberichten und in den Appellen von Nichtregierungsorganisationen. Der Begriff „Killerroboter“ weckt fraglos falsche Assoziationen: Er erinnert an isolierte humanoide Kampfmaschinen à la „Terminator“. Technisch ist er jedoch nicht falsch, denn in der internationalen Debatte um eine Regulierung geht es genau darum: um autonome Systeme, die töten können, abgekürzt LAWS: Lethal autonomous weapon systems. Die Definitionsfrage – was ist mit Autonomie gemeint? – nimmt dabei eine wichtige Rolle ein. Schon daran hätten die ersten Verhandlungsschritte scheitern können: Wie viel menschliche Kontrolle ist noch im System? Ab welchem Automatisierungsgrad kann man von Autonomie sprechen? Die Übergänge sind schließlich fließend – ähnlich wie bei Autos. Dort beginnt die Automatisierung mit Fahrassistenzsystemen (Spurassistent, Parkassistent, Tempomat), die eine Teilkontrolle über das Fahrzeug übernehmen.
Es geht weiter mit teil-, hoch- und vollautomatisierten Systemen, bei denen der Fahrer in weitgehend berechenbaren Umgebungen (Autobahn, Parkhaus) die Steuerung dem Fahrzeug überlässt, sie aber in komplexen Umgebungen (Stadtverkehr, Straßenkreuzungen) wieder übernimmt. Als „autonom“ gilt ein Auto erst, wenn es eine beliebige Strecke von Tür zu Tür ohne menschlichen Eingriff zurücklegt.
Der Versuch, diese Kriterien auf Waffensysteme zu übertragen, stößt jedoch an Grenzen: Beim Auto ist die Aufgabe klar benennbar: der sichere Transport von A nach B. Die Rahmenbedingungen sind ansonsten klar: Es gibt ein wohldefiniertes Straßennetz und definierte Verkehrsregeln. Der Kontext eines Waffeneinsatzes ist ein ganz anderer: Autonome Waffen operieren in einer feindlich gesinnten Umgebung. Die Prämissen und Prioritäten können variieren. Jede Situation verlangt neue grundlegende Entscheidungen über die jeweils aktuelle Aufgabe: Waffen sind autonom, wenn sie unter anderem in der Lage sind, sich ihre Ziele selbst zu suchen.
Drohnen sind unbemannt – aber deshalb noch nicht autonom, solange sie von einem „Piloten“ in einem Kontrollzentrum ferngesteuert werden. Heutige Flugabwehrsysteme wie MANTIS erkennen anfliegende feindliche Raketen weitgehend eigenständig. Wenn sie ihre Granaten abfeuern, werden Zeitpunkt und Richtung von der Software berechnet, nicht vom Menschen. Doch ist es ein Offizier, der sie scharfstellt und somit auch entscheidet, dass eine Situation eingetreten ist, in der der Einsatz gerechtfertigt ist. Die Bundeswehr selbst spricht hier deshalb von einem „hoch automatisierten“ System. Andere würden hier schon von „autonom“ sprechen, da MANTIS bestimmte „kritische Funktionen“ (wie eben Identifizierung und Angriff von Zielen) selbstständig ausführt – andernfalls würde man „Autonomie“ nur auf Systeme beschränken, die nicht einmal einer Aktivierung durch den Menschen bedürfen. Dass sich Flugabwehrsysteme immer stärker in Richtung Autonomie bewegen, ist nichts Neues. Da es sich bei ihnen um Defensivwaffen handelt, hat diese Entwicklung jedoch keine Grundsatzdiskussion ausgelöst. Die Appelle, autonome Waffen zu ächten, ebenso wie die internationalen Regulierungsbemühungen konzentrieren sich viel mehr auf „tödliche autonome Waffensysteme“ (LAWS) beziehungsweise „offensive autonome Waffen“.
Gemeint wäre damit zum Beispiel die von Israel entwickelte Kamikaze-Drohne „Harop“, auch Harpy 2 genannt. Eine Drohne, die nach Herstellerangaben ihre Ziele selbst (wenn auch mit Hilfe der Daten anderer Aufklärungsdrohnen) aussuchen, ansteuern und zerstören kann. Gedacht ist die „Harop“ vor allem dafür, gegnerische Flugabwehrsysteme auszuschalten. Ihre Sensorik erkennt die von ihnen ausgesandten Radarwellen und kann sie somit als Ziel identifizieren. Ende März 2016 kam sie erstmals im Konflikt um die Provinz Berg-Karabach zum Einsatz – wobei unklar ist, wie autonom sie in diesem konkreten Einsatz betrieben wurde. Sie traf dort den Berichten zufolge kein Flugabwehrsystem, sondern einen Bus mit gegnerischen Soldaten.
Um die Schwierigkeiten zu umgehen, Autonomie zu definieren, wird bei den internationalen Regulierungsversuchen die Frage meist andersherum gestellt. Nicht: Was kann die Waffe? Sondern: Wie viel Kontrolle hat der Mensch noch? Die Schlüsselbegriffe lauten hier „angemessen“ (appropriate) und „bedeutsam“ (meaningful). Einen angemessenen menschlichen Einfluss forderte etwa die Direktive 3000.09 des Pentagons: „Autonomous and semi-autonomous weapon systems shall be designed to allow commanders and operators to exercise appropriate levels of human judgment over the use of force.“
Diese Direktive wurde in der Öffentlichkeit als ein Moratorium für die Entwicklung von autonomen Waffensystemen interpretiert. In Wahrheit lässt die Direktive einen großen Interpretationsspielraum: „In bestimmten Situationen – könnte man argumentieren – ist keine menschliche Kontrolle angemessen“, erläutert der Politikwissenschaftler Frank Sauer. Befürworter einer Ächtung fordern daher von autonomen Waffen eine bedeutsame menschliche Kontrolle. „Bedeutsam“ suggeriert, dass noch jemand da ist, der die (humanitäre und völkerrechtliche) Bedeutung einer Entscheidung erfasst.
Die Mitgliedsstaaten der Convention on Certain Conventional Weapons haben bisher aber noch nicht über ein Verbot verhandelt. Sie haben lediglich den formalen Verhandlungsprozess eingeleitet, der im August mit einem Treffen von Regierungsvertretern offiziell beginnt. Die Diskussion über „appropriate“ versus „meaningful“ spielte auf dem Weg dorthin eine erhebliche Rolle, wie auch aus dem Abschlusspapier des informellen Expertentreffens im April 2016 in Genf hervorgeht. Die Formulierung „meaningful human control“ ließ sich jedoch nicht durchsetzen. Stattdessen empfiehlt das Papier, die Regierungsvertreter sollten in den nun anstehenden Gesprächen unter anderem darüber nachdenken, wie viel menschliche Beteiligung beim Einsatz tödlicher Waffen „angemessen“ sei.
Zurück zur Liste der Beiträge
"Wir haben eine ganz andere Sichtweise auf die Dinge"
Diese unbemannten Systeme gibt es in der Bundeswehr
DIESE SEITE:
TEILEN:
FOLGEN SIE UNS: