Rüstungskontrolle

Killer-Roboter stoppen

Ein Roboterfahrzeug mit einer Waffe
Es bleibt immer weniger Zeit, der technischen Entwicklung im Bereich der Waffentechnologie mit sinnvollen, internationalen Regeln zu begegnen. Daher erhöhen wir mit unserem Antrag den Druck auf die Bundesregierung, bei der Ächtung letaler autonomer Waffensysteme nicht locker zu lassen. mauritius images / PJF Military Collection / Alamy
31.01.2020
  • Die Entscheidung über Leben und Tod darf nicht von Maschinen getroffen werden. Beim Einsatz von Waffensystemen muss die „menschliche Kontrolle“ weiterhin jederzeit gegeben sein. Hierfür braucht es internationale Regeln.
  • Die Verhandlungen über ein Verbot von letalen autonomen Waffensystemen, manche reden auch von „Killerrobotern“, treten international auf der Stelle. Es braucht mehr politischen und gesellschaftlichen Druck.
  • Wir Grüne im Bundestag fordern die Bundesregierung auf, sich wie im Koalitionsvertrag angekündigt, für eine Ächtung letaler autonomer Waffensysteme einzusetzen.

Wir Grüne im Bundestag wollen nicht, dass von Algorithmen gesteuerte Maschinen über Leben und Tod von Menschen entscheiden. In unserem Antrag „Für einen VN-Verbotsvertrag – Völkerrechtliche Ächtung autonomer Waffensysteme unterstützen“ fordern wir die Bundesregierung auf, sich bei den internationalen Verhandlungen entschiedener für einen verbindlichen Verbotsvertrag einzusetzen. Eine mit Frankreich vorangebrachte Initiative sah zunächst nur eine politische Absichtserklärung der Staaten vor.

Unser Antrag wurde in der Ausschussberatung von den Koalitionsfraktionen CDU/CSU und SPD aber auch von FDP und AfD abgelehnt. Die abschließende Bundestagsdebatte zu unserem Antrag wurde begleitet von Protestaktionen der Internationalen Kampagne „Stopp Killerrobots“.

Künstliche Intelligenz darf nicht autonom entscheiden treffen können

Sorge bei den internationalen Verhandlungen für einen möglichen Verbotsvertrag von letalen autonomen Waffensystemen bereitet die zögerliche Haltung einiger Staaten. Bei ihnen handelt es sich meist um technologisch führende Nationen, die sich von der Entwicklung im Bereich der Künstlichen Intelligenz erhebliche Vorteile erhoffen. Die Prognosen, was mit Hilfe von Künstlicher Intelligenz auch militärisch machbar sein soll, müssen alarmieren. Je eigenständiger und schneller Informationen verarbeitet werden, desto weniger Einfluss hat der Mensch. Dies kann in Waffensystemen verheerende Folgen haben, wenn die Zielerfassung,  -auswahl und -bekämpfung allein von der Maschine getroffen wird. Darum plädieren die Gegner von vollautonomen Waffensystemen für die Beibehaltung der „menschlichen Kontrolle“.

KI-ForscherInnen sprechen sich gegen eine zunehmende Automatisierung von Waffensystemen aus

Je länger die internationalen Verhandlungen in die Länge gezogen werden, desto weiter entwickelt sich die Technologie und desto schwerer wird es, nachträglich Regeln einzuführen. Daher hat sich international ein Bündnis von Nichtregierungsorganisationen zusammengeschlossen, das gegen diese Entwicklung kämpft. Ihnen angeschlossen haben sich mittlerweile auch Vertreterinnen und Vertreter der Forschung und Wirtschaft. Weltweit haben sich KI-Forscherinnen und Forscher gegen eine zunehmende Automatisierung von Waffensystemen ausgesprochen. Die Vereinten Nationen, das Europaparlament und auch Kirchenvertreter sehen das ebenso. Zeit, dass sich etwas bewegt.