Rüstungskontrolle

Autonome Waffensysteme regulieren

Ein Roboterfahrzeug mit einer Waffe
Am 29.10.2020 legte das Büro für Technikfolgenabschätzung (TAB) einen umfassenden Bericht zum Thema Autonome Waffensysteme vor. In ihm sind alle aktuellen Fragen und Regulierungsansätze gebündelt. Wichtig bleibt, der letale Einsatz von Waffen muss von Menschen kontrolliert sein. mauritius images / PJF Military Collection / Alamy
13.11.2020
  • Je weiter sich die Debatte um Autonome Waffensysteme dreht, desto deutlicher wird, dass es das Verbot eines einzelnen Waffentyps oder eines „Killerroboters“ nicht geben wird. Autonome Funktionen sind in zu vielen Waffensystemen verbaut, als dass hier eine einheitliche Regelung greifen könnte.
  • Trotzdem braucht es Regulierungen und Kontrolle. In Anbetracht der Gefahren, die von der Geschwindigkeit und menschlich nicht mehr nachvollziehbaren Entscheidungen von Maschinen ausgehen, liegt diese Kontrolle im Interesse aller Staaten.
  • Die Grüne Bundestagsfraktion bleibt daher bei ihrer Forderung nach einem rüstungskontrollpolitischen Ansatz, der die Rolle des Menschen in den Vordergrund rückt.

Die Veröffentlichung eines Berichts des Büros für Technikfolgenabschätzung zum Thema Autonome Waffensysteme war am 04.11.2020 erneut Anlass für eine Debatte zu diesem Thema im Deutschen Bundestag. Da der TAB-Bericht von den technischen über die rechtlichen bis hin zu den ethischen Aspekten alles beleuchtete, was es aktuell zu diesem Thema zu sagen gibt, stellte er eine fundierte Grundlage für die Diskussion im Ausschuss für Bildung, Forschung und Technikfolgenabschätzung dar, an der auch Abgeordnete aus anderen Ausschüssen wie dem Verteidigungs- oder Auswärtigem Ausschuss teilnahmen. An der Erstellung des TAB-Berichts beteiligte Sachverständige machten in ihren Vorträgen nochmals deutlich, an welcher Stelle der internationalen Bemühungen um Einhegung und Rüstungskontrolle wir gerade stehen.

Letale Autonome Waffensysteme: Ein Problem der Definition

Das Bild eines „Killerroboters“ prägte lange die Diskussion um sogenannte Letale Autonome Waffensysteme (LAWS). Mittlerweile ist klar: die eine Maschine, die alle autonomen Funktionen auf sich vereint und selbststeuernd durch die Gegend läuft, fliegt oder schwimmt, wird es so auf absehbare Zeit nicht geben. Daher wird es auch nicht reichen, ein einzelnes Waffensystem zu identifizieren und zu verbieten. Das erschwert nach Ansicht der meisten Beobachter die rüstungskontrollpolitischen Gespräche erheblich. Schon allein die Definition stellt ein Problem dar, weil die Fähigkeit, bestimmte Entscheidungen durch technische Weiterentwicklung automatisch zu treffen, sich gleichzeitig in zahlreichen militärischen Geräten verbreitet. Manchmal ist sie auch zum Schutz geboten, weil die menschliche Reaktionszeit nicht mehr in der Lage wäre, angemessen zu reagieren. Hier beginnt das Problem einer Rüstungsspirale. Um sich vor schnell agierenden Systemen eines Gegners schützen zu können, müssen selbst schnelle Entscheidungswege gefunden werden. Eine der Fragen in der Diskussion im Ausschuss drehte sich daher auch um die Frage, inwieweit es reicht, sich lediglich reaktiv auf eine derartige Entwicklung einzustellen oder selbst führend in diesem Bereich sein zu müssen?

Ethische Bedenken als Maßstab für autonome Killerwaffen

Das größte Unbehagen in der Debatte um zunehmende Autonomie in Waffensystemen stellt die Aussicht dar, dass Menschen von autonom von Maschinen getötet werden. Diese Entwicklung gilt es zu stoppen. Auf dieser Ebene scheint sich auch der größte Konsens unter den Staaten abzuzeichnen, die im Rahmen der UN versuchen, dieses Problem durch Rüstungskontrolle einzuhegen. In den seit 2014 laufenden Gesprächen im Rahmen der Konvention über bestimmte konventionelle Waffen (CCW-Convention on certain conventional weapons) in Genf haben sich die Staaten 2019 auf die Entwicklung eines „normativ-operationellen Rahmens“ verständigt. Diesen gilt es aus zu buchstabieren, was wegen der Corona-Pandemie in diesem Jahr leider kaum stattfindet. Dabei ist, wenn es um die Einhegung des technischen Fortschritts geht, Zeit eines der größten Probleme. Die internationalen Verständigungsbemühungen halten mit den technischen Weiterentwicklungen nicht Schritt.

Rüstungskontrolle: Liegt im Eigeninteresse der Staaten

Der TAB-Bericht macht - wie auch schon vorangegangene Publikationen aus dem Bereich der Künstlichen Intelligenz, des Maschinenlernens und anderer Zukunftsentwicklungen - deutlich, welche Gefahren aus dieser Entwicklung entwachsen.  So sehr bei einigen Staaten das Interesse an technologischer Führerschaft vorzuherrschen scheint, so deutlich müsste auch werden, dass die Risiken auf einen selbst zurückfallen können. Krieg mit „Maschinengeschwindigkeit“ ohne die Möglichkeit des Eingreifens ist das vorhersehbare worst-case-scenario. Rüstungskontrolle liegt somit auch im Eigeninteresse der Staaten. Darauf haben die Sachverständigen in der Diskussion mehrfach hingewiesen. Der Vorteil dieses Ansatzes ist, dass er politisch geregelt werden kann, ohne die technischen Details jeglichen Waffentyps zu benennen. Die Frage, wann und wo der Mensch noch eingreifen können soll, ist eine politische Entscheidung.  Hierauf sollten sich zukünftige Verhandlungen fokussieren.

Wir Grüne im Bundestag haben die Bundesregierung mehrfach in Anträgen aufgefordert, sich intensiv in diese Debatte auf internationaler Ebene einzubringen, zuletzt mit dem Antrag „Für einen VN-Verbotsvertrag – Völkerrechtliche Ächtung autonomer Waffensysteme unterstützen“ . Wir erwarten, dass die Bundesregierung sich im Lichte aller Entwicklungen und stetig wachsender Erkenntnis weiterhin in diesem Sinne engagiert, damit nicht eines Tages Algorithmen über Leben und Tod von Menschen entscheiden.