In den Star-Wars-Filmen tauchen die Droiden schon lange auf, allerdings waren die braunen Roboter eher dämlich und unselbstständig. Von ähnlichen Robotern träumen Rüstungsfirmen, irdischen Entwicklern schweben aber klügere Machinen vor.
Die Mission: Überzeugen Sie die globale Rüstungsindustrie, auf eine Klasse von Waffen zu verzichten, die die Kriegsführung im 21. Jahrhundert umwälzen könnte. Das ist eine Aufgabe für Don Quijote? Dem würde Noel Sharkey widersprechen. Er hat allerdings sechs Jahre bis zum ersten Erfolg gebraucht. In einem provokativen Gastkommentar in der britischen Zeitung The Guardian hatte der Informatiker von der University of Sheffield 2007 gewarnt, Kriegsroboter könnten bald die Entscheidungsgewalt bekommen, ob und welche Menschen sie töten sollen. Doch vor Kurzem haben sich die Vertragsparteien der „Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen“ (CCW) einstimmig bereit erklärt, die Bestimmungen über autonome, nicht mehr vom Menschen gesteuerte Waffen zu überprüfen.
Für viele Laien haben Sharkeys Warnungen Bilder von Killermaschinen aus Science-Fiction-Filmen heraufbeschworen. Aber auch Experten auf dem Gebiet der künstlichen Intelligenz empfinden Angst, dass Roboter sich allein auf Algorithmen verlassen könnten, um zwischen feindlichen Soldaten und Zivilisten zu unterscheiden. Die Kampagne von Sharkey und anderen Wissenschaftlern könnte die tötenden Roboter noch verhindern. Über die CCW einen Bann zu erwirken, wie er auch für Landminen, Brand- und Blendwaffen gilt, sei „keine Fantasterei mehr“, sagt der Informatiker. Er steht inzwischen einer unabhängigen Organisation namens International Committee for Robot Arms Control (ICRAC) vor. „Wir haben einen großen Schritt vorwärts gemacht, um diese abscheulichen Waffen zu verhindern.“
Die Organisation wurde 2009 von Sharkey und mehreren anderen gegründet. Der Informatiker ist in der Öffentlichkeit das vielleicht bekannteste Mitglied, weil er von 1998 bis 2004 eine Fernsehserie moderiert hat, die ausgerechnet „Robot Wars“ hieß: Hier traten ferngesteuerte Maschinen gegeneinander an, um sich Gliedmaßen abzuschlagen oder umzuwerfen. Er weiß also, worüber er spricht.
Es dürfe nie passieren, sagt Sharkey, dass das Militär die Roboter als Kraftverstärker benutzt. Er verweist auf ein grundsätzliches Problem ihrer Software: „Computerprogramme brauchen eine klare Definition von Nicht-Kämpfern, aber die gibt es nicht.“ Zwar behaupten manche Informatiker, eines Tages dürften technische Systeme mit künstlicher Intelligenz die kognitiven Fähigkeiten von Menschen erreichen oder übertreffen. Das bedeute aber nur, dass Menschen die Kontrolle verlieren könnten, warnt der Physiker Mark Gubrud, der ebenfalls im ICRAC arbeitet. „Dumme Roboter sind gefährlich, aber kluge Roboter sind noch gefährlicher.“ Und die in der Mitte könnten die gefährlichsten überhaupt sein.
Genau wie der Panzer, das U-Boot und die Atombombe die Regeln der Kriegsführung im 20. Jahrhundert umgeschrieben haben, könnten autonome Waffen die Gewaltkonflikte im 21. Jahrhundert prägen. „Das Militär arbeitet schon an Systemen, die immer selbständiger werden, und zwar nicht weil sie cool sind, sondern weil sich die Planer Vorteile auf dem Schlachtfeld versprechen“, sagt Peter Singer vom Thinktank Brookings Institution in Washington. Das Pentagon hat bereits 2007 eine 25-Jahre-Vision für unbemannte Waffen vorgestellt, wonach Roboter Ziele autonom lokalisieren und zerstören sollen. Und vor einem Jahr deutete die Militärführung an, dass nicht nur Sachen, sondern auch Menschen zum Ziel werden könnten, wenn die oberste Ebene der Entwicklung zustimme.
„Es gab keine Fanfare, aber die Welt hatte ihre erste offen erklärte nationale Politikvorgabe für Killerroboter“, kommentierte das Mark Gubrud im Bulletin of the Atomic Scientists – dem Blatt mit der berühmten Weltuntergangsuhr, die zurzeit auf fünf vor zwölf steht. Gubrud hatte schon 2002 zusammen mit dem Physiker Jürgen Altmann von der Universität Dortmund einen Bann für Kriegsroboter gefordert. Die 2012 vom amerikanischen Verteidigungsministerium erlassene Direktive, so Gubrud, „setzt sich über den Widerstand im Militär selbst hinweg und signalisiert den Entwicklern und Rüstungsverkäufern, dass es das Pentagon mit den autonomen Waffen ernst meint“.
Die USA und andere Staaten setzen schon lange unbemannte Waffensysteme ein – vor allem Kampfdrohnen, die Hunderte Missionen geflogen sind, um Vertreter der Taliban oder von Al-Qaida zu töten. Bisher wurden sie von Menschen per Fernbedienung gesteuert. Amerikanische Verteidigungsexperten sind nicht wild darauf, Robotern die Entscheidung zum Töten zu überlassen. Ein wichtiger Einwand ist, dass tödliche autonome Waffen nicht mit dem Kriegsvölkerrecht vereinbar wären. Es verlangt nach den verheerenden Angriffen auf Zivilisten im Zweiten Weltkrieg, dass Armeen ihre Aktionen auf militärische Ziele begrenzen und zwischen Kämpfern und Nicht-Kämpfern unterscheiden.
Wenn Roboter Frauen und Kinder töten würden, stellten sich die USA außerhalb dieses allgemein anerkannten internationalen Rechts, fürchten Militäranwälte. Sie sehen aber nicht das gleiche Problem, wenn die autonomen Maschinen nur Sachen statt Personen angreifen. Eine ähnliche Unterscheidung haben die Staaten bei Minen getroffen, die als Waffe gegen Panzer erlaubt, aber als Waffe gegen Menschen weitgehend geächtet sind.
Das Pentagon habe aber schon die Entwicklung halb-autonomer Waffen genehmigt, warnt Gubrud, die in der Zielerfassung komplett selbständig sind. Solche Raketen können sich gleich nach dem Start auf ein Schiff ausrichten, das Hunderte Kilometern entfernt ist, und es verfolgen. Es muss dann nur noch jemand die Genehmigung zum eigentlichen Angriff erteilen. Allerdings hat ein Pentagon-Sprecher Gubrud erst vor Kurzem erklärt, es seien „keine vollständig autonomen Systeme in der Pipeline oder in der Prüfung“.
Inzwischen hat sich die ICRAC mit anderen Gruppen wie Human Rights Watch verbündet – 47 Organisationen aus 22 Ländern bilden die Kampagne, um Killerroboter zu stoppen. Im Frühling bekam die Bewegung politische Unterstützung, als Christof Heyns, Sonderberichterstatter der Vereinten Nationen über extralegale, summarische und willkürliche Exekutionen, den Menschenrechtsrat anrief. Er solle alle Staaten dazu drängen, „Moratoria für Tests, Produktion, Kauf und Einsatz tödlicher autonomer Roboter zu verkünden, bis ein regulierender Rahmen verabschiedet ist“.
Sharkey und seine Mitkämpfer bearbeiteten währenddessen die Signatarstaaten der CCW. Die USA waren der Schlüssel, sagt Sharkey. Seine Organisation besitze den Respekt der Militärführung, weil sie eine genau definierte, begrenzte Forderung vertritt. „Wir sind nur gegen die Tötungsfunktion.“ Im Oktober erhielt er die Nachricht, dass die amerikanische Vertretung bei den Vereinten Nationen einen Auftrag der CCW unterstützen werde, die autonomen Waffen zu untersuchen.
Als sich die Delegationen der CCW im November in Genf trafen, beschwor Sharkey die Gefahren autonomer Waffen in einer leidenschaftlichen Rede. In der anschließenden Abstimmung hätte jeder der Staaten seinen Vorschlag einer offiziellen Prüfung per Veto ablehnen können. „Das war eine Situation zum Nägelbeißen“, sagt er. Doch alle Vertreter stimmten schließlich zu. Allerdings müssen die Aktivisten im kommenden Jahr die Staaten noch überzeugen, mit einem formalen Protokoll Entwicklung, Produktion und den Einsatz der autonomen Waffen zu verbieten – und den Geist so für immer in der Flasche einzusperren.
Dieser Text ist in Science erschienen, dem internationalen Wissenschaftsmagazin, herausgegeben von der AAAS. Weitere Informationen: www.aaas.org, www.sciencemag.org.