Technikfolgenabschätzung

Autonome Waffen­systeme: Wenn Maschinen über Le­ben und Tod ent­scheiden

Zu dem Thema “Autonome Waffensysteme„ fand am Mittwoch, 4. November 2020, ein öffentliches Fachgespräch im  Bundestag statt. Im Auftrag des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) einen Bericht (19/23672) fertiggestellt, der technische Aspekte, ethische Gesichtspunkte und internationale Politikfragen im Kontext von autonomen Waffensystemen umfassend behandelt. Laut Bericht wird die Erweiterung autonomer Funktionen von Waffensystemen immer wahrscheinlicher. Bislang habe ein menschlicher Kommandeur oder Operator die Ziele ausgewählt, über den Angriff entschieden und schließlich den Waffeneinsatz freigegeben.

Trends zu Großgeräten und zum Schwarmeinsatz

Nach der Begrüßung durch Dr. Ernst Dieter Rossmann (SPD), Vorsitzender des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung, führte Reinhard Grünwald, Projektleiter des TAB, in das Thema ein. Grünwald machte deutlich, dass autonome Waffensysteme, die ohne menschliches Zutun Ziele auswählen und bekämpfen können, sich aufgrund der enormen technologischen Fortschritte in den Bereichen Robotik und künstlicher Intelligenz (KI) an der Schwelle zur konkreten Umsetzung befänden.

Technologische Trends gingen einerseits zu extrem leistungsfähigen Großgeräten, wie etwa autonomen Kampfdrohnen mit Strahlantrieb und Tarnkappenfähigkeiten, die im Luftkampf über umkämpftem Gebiet eingesetzt werden können, und andererseits zu immer kleineren Systemen, die in großer Zahl kostengünstig hergestellt und im Schwarm eingesetzt werden können. Befürworter dieser Entwicklung würden sich laut Grünwald von solchen autonomen Waffensystemen (AWS)  entscheidende militärische sowie unter Umständen auch humanitäre Vorteile versprechen. Kritiker äußerten Bedenken, ob es ethisch vertretbar, politisch verantwortbar und (völker)rechtlich erlaubt sein kann, die Entscheidung über Leben und Tod von Menschen an Maschinen zu delegieren.

“Maschine liefert ihrem Bediener Informationen„

Prof. Dr.-Ing. Frank Flemisch vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE), warnte vor AWS, da sie nicht beherrschbar seien. Gleichwohl machte er deutlich, dass es bislang keine vollständigen AWS gebe, aber bereits teilautonome Technik. 

Ziel sei es, kooperative Systeme zu bauen, was bedeutet, dass die Maschine im Gefecht ihrem Bediener Informationen liefert.

“Vorteile wegen kürzerer Entscheidungszeiten„

Dr. Jürgen Altmann von der Technischen Universität Dortmund machte klar, dass aus Sicht der Militärstreitkräfte AWS vor allem für den Kampf gegen annähernd ebenbürtige Gegner interessant seien. Altmann sah es als wahrscheinlich an, dass es leichter zu einer Eskalation kommt, wenn wichtige Staaten wie die USA, China und Russland beginnen würden, AWS zu stationieren. AWS würde der jeweiligen Streitkraft wegen kürzerer Entscheidungszeiten große Vorteile bringen.

Mit autonomen, unbemannten Waffensysteme könnten Überraschungsangriffe und sogar Entwaffnungsschläge möglich sein, da die Systeme unerkannt beim Feind eindringen und als Schwärme wichtige Ziele von allen Seiten angreifen könnten. Altmann führte aus, dass ein Wettrüsten mit  AWS durch ein internationales, rechtlich verbindliches Verbot verhindert werden könnte. Deutschland sollte dieses Umdenken fördern und für ein AWS-Verbot eintreten, insbesondere im Waffenübereinkommen der Vereinten Nationen.

“Gefahr eines internationalen Wettrüstens„

Johanna Polle und Dr. Christian Alwardt vom Institut für Friedensforschung und Sicherheitspolitik (IFSH) fragten: “Was wäre einer der Haupteffekte Autonomer Waffensysteme? Es wäre die Gefahr eines menschlichen Kontrollverlustes über Entscheidungen von Leben oder Tod.„ Die sicherheitspolitischen Konsequenzen von AWS seien ein gefährlicher Höhepunkt von Entwicklungen, die man bereits heute beobachte: Militärische Aufgaben würden vom Menschen an den Computer outgesourct. Auch sie benannten die Gefahr eines internationalen Wettrüstens, getrieben von einer Automatisierungsspirale, sowie einer zunehmenden Beschleunigung der Kriegsführung.

Dr. Bernhard Koch vom Institut für Theologie und Frieden (ITHF) plädierte aus ethischer Sicht an die Politik allein wegen der Risiken, die solche Systeme aufwerfen, sich für ein durchsetzungsfähiges Verbot autonomer Waffensysteme und  für eine effektive Rüstungskontrolle in diesem Bereich einzusetzen.

“Hin zur Beibehaltung der menschlichen Kontrolle„

Anja Dahlmann von der Stiftung Wissenschaft und Politik (SWP) betonte, dass der Fokus der internationalen Gespräche zu Lethal Autonomous Weapon Systems (LAWS) auf dem Schutz des humanitären Völkerrechtes liege. Dies gebe die Waffenkonvention der Vereinten Nationen vor, die ein multilaterales Verbot von LAWS ermögliche. Die Diskussion bewege sich bei den Vereinten Nationen weg von technischen Definitionen von LAWS hin zur Beibehaltung der menschlichen Kontrolle bei der Zielauswahl und -bekämpfung.

Allerdings machte sie auch deutlich, dass die Gespräche nur mit einer politischen Erklärung oder sogar ohne Ergebnis enden könnten. Aber selbst ohne Verbotsvertrag entfalte der Gesprächsprozess eine normative Wirkung, da sich Staaten über die menschliche Rolle beim Waffeneinsatz austauschen und dies (zumindest teilweise) bei ihren eigenen Rüstungsprojekten berücksichtigen.

“Regulierung des Mensch-Maschine-Verhältnisses„

Auch Dr. Frank Sauer von der Universität der Bundeswehr München betonte, dass Rüstungskontrolle in diesem Feld angesichts der strategischen Risiken Interessenpolitik und der nationalen Sicherheit dienlich sei. Das habe nichts damit zu tun, sich militärisch “die Hand auf den Rücken binden„. Zudem unterstrich er, dass es bei Waffensystemautonomie nicht um die Kategorisierung oder die Zählung oder Ächtung eines bestimmten Typus von Waffensystem gehen kann, sondern ganz explizit um die Regulierung des Mensch-Maschine-Verhältnisses.

Es gehe also, wie auch schon andere Experten betont hatten, um das Beibehalten der menschlichen Kontrolle, der “retain human control“. Zudem machte er deutlich, dass die Regulierung in Form relativ abstrakter Prinzipien vereinbart und dann abhängig vom Operationskontext präzisiert werden müsse. (rol/04.11.2020)

Fragestellungen des Technikfolgenabschätzungsprojekts

Das Technikfolgenabschätzungsprojekt (19/23672) wurde von 2017 bis 2019 im Auftrag des Ausschusses vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) betrieben. Im Mittelpunkt standen technische Aspekte, ethische Fragestellungen und internationale Politikfragen. So sollte untersucht werden, wie sich der technologische Reifegrad und die Entwicklungsperspektiven autonomer Waffensysteme gegenüber dem Stand von 2011 weiterentwickelt haben.

Darauf gestützt sollten die in einem bereits 2011 veröffentlichten TAB-Bericht zum Thema (17/6904) getroffenen Einschätzungen mit dem Schwerpunkt auf (voll)autonome Kampfeinsätze aktualisiert und ergänzt werden.

Ethische und sicherheitspolitische Fragen

Die ethischen Fragestellungen sollten im Hinblick auf die unterschiedlichen Autonomiegrade und Einsatzzwecke unbemannter militärischer Systeme differenziert diskutiert werden. Besonderer Wert sollte auf die Anschlussfähigkeit zu lebenspraktischen und rechtlichen Problemen gelegt werden, beispielsweise auf Verantwortung und Haftbarkeit sowie in Bezug auf das humanitäre Völkerrecht oder die Menschenrechte.

Darüber hinaus sollte untersucht werden, welche sicherheitspolitischen Verwicklungen eine mögliche Verfügbarkeit autonomer Waffensysteme nach sich ziehen könnte. Beispielsweise könnte die Entscheidung, einen Konflikt mit Waffen auszutragen, leichter gefällt werden, wenn anstelle menschlicher Soldaten autonome Waffensysteme ins Feld geführt werden können. Dies könnte destabilisierend wirken und Kriege wahrscheinlicher werden lassen. Aus rüstungskontrollpolitischer Perspektive stellt sich die Frage, welche Handlungsmöglichkeiten Deutschland auf internationaler Ebene besitzt, um die angestrebte Ächtung tödlicher autonomer Waffen voranzubringen. (rol/vom/04.11.2020)

Zeit: Mittwoch, 4. November 2020, 15 Uhr bis 17.30 Uhr
Ort: Berlin, Paul-Löbe-Haus, Sitzungssaal 4 300

Marginalspalte