Auswärtiges

Regulierung bei Entwick­lung autonomer Waffen­systeme erforderlich

Eine Drohne startet in den frühmorgendlichen Himmel

Der Unterausschuss befasste sich mit autonomen Waffensystemen. (Bundeswehr/Sebastian Wilke)

Experten schätzen die aktuellen Entwicklungen und Perspektiven im Bereich autonomer Waffensysteme und die Rolle Deutschlands im Kontext internationaler Bemühungen, solche Waffensysteme technologisch und in ihrer Verbreitung zu begrenzen oder zu verbieten, in einer öffentlichen Anhörung des Unterausschusses Abrüstung, Rüstungskontrolle und Nichtverbreitung des Auswärtigen Ausschusses am Mittwoch, 6. November 2019, unter dem Vorsitz von Matthias Höhn (Die Linke) als besondere Herausforderung ein. Im Mittelpunkt stehen technologische, sicherheitspolitische sowie völkerrechtliche und ethische Fragen bei der Kriegsführung durch den Einsatz autonomer Waffensysteme, den Auswirkungen solcher Systeme auf die globale Stabilität und Vereinbarung neuer technologischer Entwicklungen mit dem Völkerrecht.

Schnittstelle Mensch-Maschine ist Kernfrage

Auf einen demnächst erscheinenden Bericht seines Hauses zum Thema wies Dr. Reinhard Grünwald vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag hin, der zunächst einmal definitorische Klarheit schaffen wolle, was unter autonomen Waffensystemen zu verstehen sei, sowie mögliche Einsatzszenarien durchspiele, deren Auswirkungen auf die Sicherheitspolitik und Möglichkeiten der internationalen Kontrolle thematisiere und den Abgeordneten Handlungsoptionen aufzeige.

Die Kernfrage drehe sich um die Schnittstelle Mensch-Maschine: Welches Ausmaß menschlicher Kontrolle meinen wir und möchten wir erhalten, wenn wir über autonome Waffensysteme sprechen? Als einen wesentlichen Schritt, um in dem Sektor international voranzukommen, sowohl was die technologischen als auch die völkerrechtlichen und ethischen Fragen betreffe, schlage man unter anderem vor, dass Deutschland zunächst eigne nationale Leitlinien vorlege, so Reinhard.

Wettrüsten im Bereich autonomer Waffensysteme

Wie sehr jetzt bereits ein Wettrüsten bei autonom gesteuerten Drohnen im Gange sei, angeführt von den USA, und gefolgt von Russland und China, darauf verwies Jürgen Altmann von der Technischen Universität Dresden. Und dieser Prozess werde sich weiter beschleunigen. Die Automatisierung könne dramatische Folgen haben für die internationale Stabilität. So könnten im Falle einer Krise, in der sich zwei gegnerische automatisierte Systeme gegenüberstünden, die Algorithmen gegeneinander hochschaukeln, ähnlich wie bei den elektronischen Handelssystemen der Börsen – mit dem Unterschied, dass eine Eskalation eben nicht wie an der Börse mit einem Aus-Schalter gestoppt werden könne. Eine solche Autorität gebe es nicht in der internationalen Sicherheitspolitik.

Durch das Wettrüsten im Bereich der autonomen Waffensysteme drohe eine neue Qualität der internationalen Destabilisierung. Es gehe künftig nicht nur darum, dass es automatisierte Systeme erfordern, Entscheidungen in Bruchteilen von Sekunden zu fällen, sondern auch darum, die neuen Systeme in das Völkerrecht einzubeziehen. Vor allem bei den USA, die die technologische Führerschaft innehätten, aber auch seitens Russlands sei ein Umdenken nötig. Deutschland sollte diesen Prozess nach Kräften fördern und sich deutlich für ein Verbot autonomer Waffen einsetzen.

Verlust der menschlichen Kontrolle

Dass der internationale Rechtsrahmen sich an Menschen richte und nicht an Maschinen, darauf wies Anja Dahlmann von der Stiftung Wissenschaft und Politik Berlin, hin. Das Völkerrecht, für alle Staaten der Welt weiterhin die verbindliche Leitlinie, impliziere, dass der Mensch weiterhin die Kontrolle über die eingesetzten Systeme habe. Das Recht fordere immer eine Verantwortlichkeit. „Eine Maschine kann keine rechtliche Abwägung vornehmen, das kann nur der Mensch“, so Dahlmann, ebenso wenig wie ein technisches System zu moralischen Einschätzungen gelangen könne.

Der Verlust der menschlichen Kontrolle, der sich grade angesichts der technologischen Entwicklungen abzeichne, stelle ein großes Problem dar. Es werfe ganz neue Fragen auf, wenn durch Automatismen eine Lücke entstehe und Fälle einträten, in denen kein Mensch mehr für die Folgen eines Waffeneinsatzes verantwortlich gemacht werden könne.

Schwierigkeiten bei der Regulierung

Dr. Christian Mölling von der Deutschen Gesellschaft für Auswärtige Politik Berlin bemängelte, die Genfer Gespräche der Vertragsstaaten der Konvention über bestimmte konventionelle Waffen (Convention on Certain Conventional Weapons, CCW) der Vereinten Nationen vom Oktober 1980, die zurzeit stattfinden, thematisierten viel zu wenig die destabilisierenden Auswirkungen autonomer Waffensysteme. Den Bereich dieser Waffengattung zu regulieren, oder gar eine weltweite vollkommene Ächtung solcher Waffen zu erreichen, wie es die Bundesregierung beabsichtige, sei ein sehr schwieriges Vorhaben und der Erfolg der Genfer Verhandlungen äußerst ungewiss. Zu stark seien die Streitkräfte zahlreicher Staaten schon von autonomen Waffensystemen durchdrungen, und die beispielsweise die fünf ständigen Mitglieder des UN-Sicherheitsrates würden einem Verbot voraussichtlich nicht zustimmen.

Viele Länder betrachteten den Einsatz autonomer Waffensysteme als Teil ihrer Sicherheitsvorsorge. Ließen sie die Verhandlungen scheitern, bleibe ihnen die Möglichkeit solche Waffen weiter zu produzieren. Für die Bundeswehr, die Deutschland vor militärischen Gefahren schützen müsse und im Verbund der Nato einen kollektiven Sicherheitsbeitrag leiste, bedeute die aktuelle volatile Lage rund um das Thema der dieser Waffensysteme, dass sie Technologie und Komponenten auch selbst entwickeln müsse, um in diesem Bereich mindestens analyse- und beurteilungsfähig zu sein, also zu verstehen, was andere Streitkräfte tun. Die deutsche Sicherheitspolitik befinde sich da in einem Dilemma. Szenarien, in denen es sinnvoll, ja sogar ethisch geboten sein kann, autonome Waffensysteme zum Einsatz zu bringen, seien durchaus vorstellbar. Etwa wenn ein System ein gegnerisches System abwehre, sich also zwei Systeme gegenseitig zerstörten, und nur Technik gegen Technik kämpfe. Es laufe schließlich alles auf die schwierige ethische Frage, inwieweit wir noch als Menschen handeln oder die Kontrolle teilweise oder ganz abgeben wollten. In der bisherigen Geschichte und aus Sicht des Völkerrechts habe immer der Mensch über Leben und Tod an einem Kriegsschauplatz entschieden.

Menschen im Mittelpunkt der Betrachtung

Auch Dr. Marcel Dickow, Stiftung Wissenschaft und Politik, plädierte dafür, die Rolle des Menschen solle im Mittelpunkt der Betrachtung stehen. Es sei „nicht entscheidend, wie wir Autonomie herstellen, sondern welche Rolle der Mensch dabei hat“. Die Technik sei noch weit davon entfernt, perfekt zu sein. Alle Beispiele über die man heutzutage international rede, seien immer noch technologische Anwendungen, die in einem Kontext stattfänden, in dem der Mensch die letzte Entscheidung treffe. Die letzte Instanz, die ein System entwickele, einsetze oder in Gang setze, sei der Mensch. Diese Entscheidung könne man nicht delegieren, ethische und völkerrechtliche Abwägungen müssten immer vom Menschen getroffen werden. Die Kontrolle zu behalten liege im übrigen auch im Interesse der Soldaten.

Die Bundesregierung solle für ihre Verhandlungsposition bei den Genfer Gesprächen klar definieren, was sie unter menschlicher Kontrolle bei autonomen Waffensystemen verstehe und ihre Vorstellung von Kontrolle erklären. Diese Überlegungen müssten zudem bereits im Stadium der Forschung und Entwicklung von Systemen einbezogen werden und auch dieser Bereich entsprechend international reguliert werden. Und schließlich müsse man sich auch Gedanken machen, wie das Thema der menschlichen Kontrolle verifiziert werden könne.

Gemeinsame Position mit Frankreich suchen

Die Schnittstelle Mensch-Maschine stand auch für Dr. Frank Sauer von der Universität der Bundeswehr in München im Mittelpunkt. Künftig würden alle Waffensysteme über Autonomie verfügen. Jeden Teilschritt könne man mit mehr oder weniger Autonomie ausstatten, das könne man vorher festlegen. Als autonomes System könne man lediglich ein System bezeichnen, das den kompletten Entscheidungsprozess ohne menschliches Eingreifen durchlaufe. Die relevante Frage sei, was autonomes Handeln der Maschine in den kritischen Funktionen des Entscheidungsprozesses, nämlich bei der Auswahl und Bekämpfung von Zielen, bedeute. Deutschland lehne die Autonomie in den kritischen Funktionen von ab, könnten doch durch die Schnelligkeit der Technik, die bei der Abwehr heranfliegender Munition sehr hilfreich sei, auch ungewollte Kettenreaktionen ausgelöst werden.

Sauer empfahl, Deutschland solle bei den Verhandlungen in Genf eine Führungsrolle einnehmen, für seine Position werben und weitere Länder gewinnen, ausgehend von einer eigenen nationalen Regulierung in dem Bereich der autonomen Waffensysteme, und dann auf europäischer Ebene, vor allem mit Frankreich, klären, ob es eine gemeinsame Position gebe. Ziel müsse sein, die menschliche Kontrolle über autonome Waffensysteme im Völkerrecht wirksam verankern. Aus der technologischem Blickwinkel sei man noch extrem weit davon entfernt, Entscheidungen einer Maschine übertragen zu können, man müsse sich ja nur die Schwierigkeiten beim autonomen Fahren anschauen. Es bleibe genügend genug Zeit, um rechtliche und ethische Leitplanken einzuführen. „Wir sollten die menschliche Kontrolle im Völkerrecht festschreiben.“

Der Abrüstungsausschuss ist ein Unterausschuss des Auswärtigen Ausschusses. Er befasst sich mit abrüstungspolitischen Themen, etwa mit dem langfristigen Ziel einer Welt ohne Nuklearwaffen. Die Abgeordneten thematisieren zudem den Fortschritt bei der weltweiten Ächtung von Streumunition oder der konventionellen Rüstungskontrolle in Europa und beraten parlamentarische Anträge wie zum Abzug von Atomwaffen aus Deutschland. (ll/07.11.2019)

Liste der geladenen Sachverständigen

  • Jürgen Altmann, Technische Universität Dortmund 
  • Anja Dahlmann, Stiftung Wissenschaft und Politik 
  • Dr. Christian Mölling, Deutsche Gesellschaft für Auswärtige Politik 
  • Dr. Marcel Dickow, Stiftung Wissenschaft und Politik 
  • Dr. Frank Sauer, Universität der Bundeswehr München 

Marginalspalte