Jetzt abonnieren Magazinarchiv durchsuchen
Der Frieden braucht neue Formen

Greenpeace Magazin Ausgabe 2.17

Der Frieden braucht neue Formen

Text: Sarah A. Topol Illustration: Javier Jaén

Vergessen Sie Drohnen und dystopische Science-Fiction-Szenarien: Eine furchterregende neue Generation autonomer Waffen wartet auf ihren Einsatz. Damit es nicht dazu kommt, tritt eine kleine Gruppe leidenschaftlicher Optimisten gegen skrupellose Regierungen und zähe Bürokratien an. Ihr Ziel ist das Verbot der Mordautomaten – um die Menschheit vor sich selbst zu retten

„Ein winziger Quadrokopter mit einem Durchmesser von zweieinhalb Zentimetern kann eine ein bis zwei Gramm schwere Sprengladung tragen. Man kann ihn bei einem Drohnenhersteller in China bestellen und ihm Folgendes einprogrammieren: ,Hier sind Tausende Fotografien von Dingen, auf die ich zielen möchte.‘ Für eine Ein-Gramm-Sprengladung, die ein Loch in neun Millimeter dicken Stahl reißen kann, dürfte ein menschlicher Kopf kein Problem sein. Ungefähr drei Millionen solcher Geschosse passen in einen Sattelschlepper. Mit drei Lastern kann man zehn Millionen Waffen für einen Angriff auf New York City transportieren. Die müssen noch nicht mal besonders effektiv sein, es reicht, wenn fünf bis zehn Prozent von ihnen ans Ziel gelangen. Hersteller werden Millionen dieser Waffen produzieren, die jedermann ebenso leicht wird kaufen können wie derzeit Schusswaffen, nur dass Millionen Schusswaffen eben nur etwas nützen, wenn man auch Millionen Soldaten hat, um sie zu bedienen. In unserem Fall braucht es ganze drei Leute, um das Programm zu schreiben und die Waffen abzufeuern. Man stelle sich also vor, dass Menschen auf diese Weise künftig in vielen Teilen der Welt gejagt werden. In zwei oder drei Jahren könnte es so weit sein.“
Stuart Russell, Professor für Informatik und Computertechnik an der University of California, Berkeley

Mary Wareham lacht viel. Ihr heiteres Kichern, das die Neuseeländerin kaum unterdrücken kann, klingt immer gleich und sprudelt bei den unterschiedlichsten Gelegenheiten heraus. Wareham lacht, wenn Dinge lustig oder unangenehm sind oder wenn sie anderer Meinung ist als ihr Gesprächspartner. Und sie lacht, wenn etwas richtig übel ist. Etwa, wenn man sich mit ihr darüber unterhält, dass die Menschheit bald von Killerrobotern vernichtet werden könnte – und die Welt nichts dagegen unternimmt.

An einem Tag im vergangenen Frühling sitze ich bei den Vereinten Nationen in Genf hinter Wareham in einem großen holzgetäfelten Raum mit beigefarbenem Teppichboden, wo die Convention on Certain Conventional Weapons (CCW) tagt. Diese Gruppe von 121 Ländern hat das Übereinkommen über das Verbot oder die Beschränkung bestimmter konventioneller Waffen unterzeichnet, die „übermäßige Leiden verursachen oder unterschiedslos wirken können“ – mit anderen Worten: Waffen, die selbst für den Einsatz in Kriegen zu grausam sind.

Wareham leitet die Waffenabteilung der Menschenrechtsorganisation Human Rights Watch. Sie koordiniert die Kampagne „Stop Killer Robots“, hinter der 61 internationale Nichtregierungsorganisationen stehen. Anders als bei den Drohnen, die erst als Aufklärer über die Schlachtfelder flogen und später zu Waffen umfunktioniert wurden, wollen die Aktivisten „tödliche autonome Waffensysteme“ (lethal autonomous weapons systems, LAWS) verbieten lassen, bevor sie tatsächlich eingesetzt werden.

Während der fünftägigen Sitzung soll über LAWS diskutiert werden: Waffen, die eigenständig Ziele auswählen und angreifen, Maschinen, die entscheiden können, dass Menschen getötet werden. Also Killerroboter.

Bei den Vereinten Nationen geht es immer nur im Schneckentempo voran – und die CCW ist besonders langsam. Jeder Vertragsstaat muss hier zustimmen, damit überhaupt etwas passiert. (Ihr letztes – und bislang einziges – erfolgreiches Waffenverbot beschloss die Konferenz 1995. Damals ging es um Blendlaser). Die ersten militärischen Angriffe mit Drohnen hat die Welt verschlafen. Wird das bei LAWS genauso sein? Kriegführung mit Drohnen ist mittlerweile alltäglich – mindestens zehn Länder setzen die unbemannten Fluggeräte inzwischen dafür ein.

Aber um Drohnen geht es hier nicht mehr. Auch nicht um von Menschen ferngelenkte Roboter wie jenen, den die Polizei in Dallas im Juli 2016 mit Sprengstoff bestückte, um einen Heckenschützen zu töten, der während einer Protestkundgebung Polizisten angegriffen hatte. Bei den autonomen Waffensystemen gibt der Mensch nur noch die Parameter für den Angriff vor – ohne das genaue Ziel zu kennen. Die Waffe sucht dann selbständig nach allem, was diese Parameter aufweist, richtet sich darauf aus und schießt oder detoniert. Beispiele für Angriffsparameter, die für Zivilisten vielleicht noch nicht so furchterregend klingen, wären etwa alle feindlichen Schiffe im Südchinesischen Meer, alle militärischen Radaranlagen in Land X, alle feindlichen Panzer auf den Ebenen Europas. Aber wenn man das Szenario um nichtstaatliche Akteure erweitert, wird es schnell ziemlich beklemmend: alle Kraftwerke, alle Schulen, alle Krankenhäuser, alle bewaffneten Männer im kampffähigen Alter, alle Männer im kampffähigen Alter mit Baseballkappen oder mit braunem Haar – lassen Sie Ihre Fantasie spielen.

Das mag wie die Art von Horror klingen, für die man im Kino Eintritt bezahlt. Doch Killerroboter mit solchen Fähigkeiten könnten schon bald von Russland, China oder den USA eingesetzt werden, die sich derzeit bei der Entwicklung ein Wettrennen liefern. „Technologische Durchbrüche sind dafür nicht mehr erforderlich“, sagt Informatikprofessor Russell. „Jede einzelne Komponente ist bereits in irgendeiner Form kommerziell verfügbar. Es ist nur die Frage, wie viel man investiert.“

LAWS werden meist in drei Kategorien eingeteilt. Zur ersten Kategorie gehören Maschinen, die beim Einsatz unter menschlicher Aufsicht stehen und nach Erreichen des Ziels auf die Freigabe für den Angriff warten. Nur noch indirekt ist die Kontrolle von Menschen über Maschinen der zweiten Kategorie: Diese bewegen sich selbststeuernd in Richtung des vorgegebenen Ziels und löschen es ohne weiteren Befehl aus. Der Mensch kann dieses autonom funktionierende System aber noch außer Kraft setzen. Diese Option gibt es in der dritten Kategorie nicht mehr. Sobald die Maschine losgeschickt wurde, um ihre Aufgabe zu erfüllen, ist keine Kontrolle, kein Rückruf mehr möglich. Es gibt keine Stopptaste. Die UN-Debatte dreht sich darum, welche dieser Alternativen präventiv verboten werden sollten – wenn überhaupt.

2016 war dabei ein wichtiges Jahr für die Kampagne. Und 2017 könnte noch entscheidender werden. Denn im Dezember hat die CCW beschlossen, eine Gruppe von Regierungsexperten einzusetzen, die in den kommenden Monaten die Risiken des Einsatzes von Killerrobotern bewerten soll. Solche formalen Gespräche sind stets der Auftakt zu weiterreichenden Verhandlungen.

Einige Monate vor diesem Beschluss macht sich Wareham während der CCW-Sitzung ebenso wenig Illusionen über die Mühen, die noch vor ihr liegen, wie über die Möglichkeiten ihrer Organisation. „Ich weiß, dass das hier eine zeitlich begrenzte Kampagne ist“, sagt sie, als ich sie in Genf begleite. „Die Welt wird sich sehr bald sehr schnell ändern, und dafür müssen wir bereit sein.“

Auf dem Weg zu einem großen Ziel zählt jeder noch so kleine Erfolg. Etwa, wenn die Länder zu Beginn der Konferenz Stellungnahmen zu ihrer Position abgeben. Algerien und Costa Rica kündigen ihre Unterstützung für ein Verbot an. Wareham setzt sie begeistert auf „die Liste“, wie sie und ihre Kollegen das nennen. Darauf standen bis dahin Pakistan, Ägypten, Kuba, Ecuador, Bolivien, Ghana, Palästina, Simbabwe und der Heilige Stuhl – Länder, die vermutlich nicht über die Technologie verfügen, um LAWS zu entwickeln. Alle Blicke richten sich auf Russland, das eine vage Stellungnahme abgibt. „Die lassen uns immer rätseln“, sagt Wareham in der Mittagspause und erinnert daran, dass nur ein Land anderer Meinung sein muss, um einen Konsens zu verhindern.

Die Russen werden sich auch im Dezember noch bis kurz vor Schluss zieren. Erst als neben den USA auch China der Expertengruppe zustimmt, geben sie ihre Blockadehaltung auf. Wie andere Waffenproduzenten will Russland aber von einem völkerrechtlichen Verbot nichts wissen. Bis Ende 2016 stehen 19 Staaten auf Warehams Unterstützerliste. Auch Deutschland ist nicht dabei. Seine Vertreter hatten sich auf den Konferenzen aber immerhin dafür starkgemacht, dass die Regierungsexperten in diesem Jahr ihre Arbeit aufnehmen, um so in Verhandlungen über Regeln für autonome Waffensysteme einzusteigen.

Ein sehr reales Problem bei dem Versuch, LAWS präventiv zu verbieten, besteht darin, dass diese Waffen eigentlich bereits existieren. Viele Länder setzen schon auf Verteidigungssysteme, die Ziele ohne menschliche Intervention auswählen und angreifen können. In den meisten Fällen können Menschen die Systeme zwar außer Kraft setzen. In der Praxis passieren die Dinge aber zu schnell, als dass ein Mensch tatsächlich eingreifen könnte.

So verfügen die USA über das Patriot-Luftabwehrsystem, um eindringende Raketen, Flugzeuge oder Drohnen abzuschießen, sowie „Aegis“, das Raketenabwehrsystem der Marine auf hoher See. Südkorea setzt zur Überwachung der Grenze an der demilitarisierten Zone zwischen Nord- und Südkorea autonome stationäre Roboter vom Typ SGR-A1 ein, die Menschen bei Fluchtversuchen töten können. Die schwarze schwenkbare Box ist mit einem 5,56-Millimeter-Maschinengewehr und einem 40-Millimeter-Granatwerfer ausgerüstet. Südkorea gibt an, der Roboter sende das Signal zum Abschuss zurück an den Bediener, sodass hinter jeder Entscheidung zur Gewaltanwendung eine Person stehe. Doch zahlreichen Berichten zufolge verfügt der Roboter über einen Automatik-Modus. Mittlerweile existieren auch Offensivsysteme – wie etwa Israels Drohnen „Harpy“ und „Harop“. Sie können feindliche Radaranlagen aufspüren und diese per Kamikazeangriff zerstören. Die Harop könnte durch einen Menschen gestoppt werden; Harpy ist vollkommen autonom.

Für das Militär sind LAWS aus einer Reihe von Gründen attraktiv: Ihre Anschaffung ist billiger als die Ausbildung von Personal. Die Streitkräfte werden damit um ein Vielfaches schlagkräftiger. Es muss kein menschliches Bedienpersonal mit diesen Waffen in gefährliche Gebiete geschickt werden – also braucht man sich um Verluste keine Gedanken zu machen. Die autonome Zielauswahl erlaubt schnellere Angriffe, und die Waffe kann auch dort eingesetzt werden, wo der Feind die Kommunikationssysteme blockiert.

Israel treibt die Entwicklung vollständig autonomer Waffen offen voran. China hat wie Russland bislang kaum Interesse an einem Verbot gezeigt. Die USA sind nur ein bisschen weniger unverblümt: 2012 erließ das US-Verteidigungsministerium die Direktive 3000.09, die vorschreibt, tödliche autonome Waffensysteme so zu konstruieren, dass Kommandeure und Bedienpersonal „in angemessenem Umfang eine menschliche Bewertung vor dem Einsatz von Gewalt“ vornehmen können. Im Januar 2015 verkündete der stellvertretende US-Verteidigungsminister Robert Work, autonome Systeme seien der einzige Weg, Amerikas Sicherheit zu gewährleisten. Mit dem Segen des Ministeriums stürmt das US-Militär voran. Die X-47B des Herstellers Northrop Grumman ist derzeit als erstes trägergestütztes unbemanntes Kampfflugzeug in der Erprobungsphase. Es sieht aus, als stamme es aus dem Film „Independence Day“: Der leicht gewölbte, grau geflügelte Jet hebt von einem Trägerschiff ab, fliegt eine programmierte Mission und kehrt zurück. 2015 fand die erste automatische Luftbetankung statt. Theoretisch bedeutet das: Außer zu Wartungszwecken müsste eine X-47B im Einsatz niemals landen.

Zu den viel gepriesenen neuen Technologien zählen Schwärme – Waffen, die sich in großen Formationen bewegen, während in einer weit entfernten Bodenstation ein Kontrolleur auf der Tastatur eines Computers herumtippt. Eine Armada von Schiffen oder Hunderte kleine Drohnen, die sich bewegen wie ein tödlicher Vogelschwarm, der Hitchcock vor Neid erblassen ließe. Die Waffen kommunizieren in „kollaborativer Autonomie“ miteinander, um ihre Mission zu erfüllen. 2014 fuhr eine kleine Flotte solcher Boote den James River im US-Bundesstaat Virginia hinunter. Im Juli vergangenen Jahres testete die Forschungsabteilung der US-Marine dreißig Drohnen, die auf See gemeinsam von einem kleinen Schiff abhoben, aus ihrer Formation ausscherten, eine Mission ausführten und sich sodann wieder zusammenschlossen.

Die Forschungsagentur des US-Verteidigungsministeriums, DARPA, der wir das Internet verdanken, war lange das Epizentrum militärischer Innovation, doch heutzutage macht der zivile Bereich rapide Fortschritte. Im Juli 2016 hob Verteidigungsminister Ash Carter das DIUx-Büro aus der Taufe, das Technologiefirmen für die Zusammenarbeit mit dem Ministerium gewinnen soll. Es hat bereits einen Ableger im Silicon Valley. Carter betonte, DIUx habe allein für 2017 umgerechnet rund 69 Milliarden Euro aus dem Forschungs- und Entwicklungsbudget beantragt. Das Geld soll für im Innenbereich einsetzbare, tragbare Drohnen genutzt werden, die autonom und ohne GPS operieren können. Auf der Wunschliste der US-Militärs stehen außerdem lernende Maschinen, die Millionen von Postings in sozialen Medien nach bestimmten Bildern durchsieben und diese für die „rasche Erkennung extremistischer Aktivitäten im Internet“ bündeln können. (DIUx hat Interviewanfragen ebenso abgelehnt wie die Marine, DARPA und das Pentagon. Die US-Luftwaffe, Northrop Grumman, Boston Dynamics und eine Reihe von Laboren, die als Subunternehmer für DARPA arbeiten, antworteten nicht auf Interviewanfragen per E-Mail).

Großbritannien verfügt mit der „Taranis“ über eine landgestützte Überschall-Tarnkappendrohne, die dem US-Modell X-47B ähnelt. China versucht offenbar in Tests mit seiner Tarnkappen-Kampfdrohne „Scharfes Schwert“ Überschallgeschwindigkeit zu erreichen. Und es gibt Informationen über eine Luft-Luft-Kampfmaschine namens „Dunkles Schwert“. Wie weit diese Waffen bereits entwickelt sind, ist unbekannt. Russland setzt den T-14-Panzer „Armata“ mit einem unbemannten Geschützturm ein. Derzeit braucht es noch Soldaten, um den Panzer zu fahren, doch man plane in naher Zukunft den ferngesteuerten Einsatz ganz ohne Besatzung, heißt es beim Hersteller. Die Israelis haben das Panzerfahrzeug „Guardium“ entwickelt, das unbemannt entlang der Grenzen patrouillieren soll. „Guardium basiert auf einem einzigartigen algorithmischen Expertensystem, das wie eine Art ‚Gehirn‘ fungiert, um Entscheidungen treffen zu können“, erklärt das Rüstungsunternehmen Israel Aerospace Industries sein neues Produkt.

All das ist beunruhigend – ganz gleich, um welches Land es sich handelt. „Mich besorgt, dass die USA dabei zu den Antreibern gehören“, sagt die Militärforscherin Heather Roff von der Arizona State University. Die führende Militärmacht könnte noch an Tempo zulegen. Dieses Jahr läuft die Pentagon-Direktive aus, die den Umgang mit Killerrobotern regelt. Es ist dann Sache der Regierung unter Präsident Donald Trump, über eine Neuauflage zu entscheiden. Trump nahestehende Rüstungsexperten haben schon vor dessen Amtsantritt klargestellt, dass sich der neue starke Mann im Weißen Haus keinen Auflagen beugen wird, die in den USA entwickelte Waffen verbieten.

Doch es droht nicht nur ein internationaler Rüstungswettlauf, sondern auch der Einsatz von Robotern zur Kontrolle ziviler Menschenmengen. Im August 2015 verabschiedete der US-Bundesstaat North Dakota ein Gesetz, das es der Polizei erlaubt, ihre Drohnen mit Elektroimpulswaffen oder Gummigeschossen auszurüsten. Eine Firma in Texas hat den „Cupid“ im Angebot, einen vollautonomen Quadrokopter, der sich im Einklang mit dem „Stand Your Ground“-Gesetz des Staates befindet: Betritt jemand unbefugt fremden Grund und Boden, kann Cupid ihn mit einem Elektroschocker so lange in Schach halten, bis die Polizei eintrifft.

„Die Leute werden sich darüber so lange keine Gedanken machen, bis so etwas wirklich passiert“, sagt Professor Noel Sharkey. „Ich habe keinen Zweifel daran, dass es autonome Kontrollen von Menschenmengen geben wird, wenn wir das zulassen.“ Sharkey, emeritierter Professor für Robotik und künstliche Intelligenz an der Universität von Sheffield und Gründer von ICRAC, dem Internationalen Komitee für die Rüstungskontrolle von Kampfrobotern, spielt innerhalb der Kampagne die Rolle des brillanten, aber zerstreuten Professors. Der Mann mit dem langen, buschigen weißen Pferdeschwanz trägt immer schwarz, kommt ständig zu spät oder verlegt etwas Wichtiges – sein Mobiltelefon oder seine Jacke.

Ein Verbot der autonomen Waffen durch die CCW würde nur für den Kriegseinsatz gelten. Sharkey ist deshalb besonders beunruhigt über den Verkauf des „Skunk Riot Control“-Octocopters in Südafrika. Dieser feuert zwanzig Kugeln pro Sekunde aus vier Paintball-Gewehren und bringt damit laut Firmenwebsite „jede Menschenmenge zum Stillstand“. Der Skunk (Stinktier) kann mit Pfefferspray, Farbkugeln oder harten Plastikgeschossen bestückt werden, 4000 Kugeln und Blendlaser tragen. Er verfügt über eine Wärmebildkamera und Lautsprecher. Laut Sharkey ist die Nachfrage so groß, dass zwei neue Fabriken eröffnet wurden, die den Skunk produzieren und an Sicherheitsdienste in der ganzen Welt verkaufen.

Am zweiten Morgen der Konferenz erzählt mir Wareham, eine israelische Harop-Drohne habe in Bergkarabach, der sowohl von Armenien als auch von Aserbaidschan beanspruchten Gebirgsregion im Kaukasus, offenbar einen Bus voller Armenier getroffen. Experten zufolge hat Israel die Kamikaze-Drohne an mindestens fünf Länder verkauft. „Wir behaupten nicht, dass das ein Killerroboter ist“, sagt Wareham. Aber da es sich um ein System mit autonomem Modus handelt, das normalerweise auf Radaranlagen zielt, stellt sich die Frage, wieso es einen Bus getroffen hat. In welchem Modus operierte es? Könnte es so umprogrammiert werden, dass es nach anderen Zielen sucht? Niemand weiß es genau.

Bei einer Kampagne für ein präventives Verbot solcher Waffen ist es ein Problem, dass man die Öffentlichkeit nicht durch Verweise auf Opfer mobilisieren kann. Die Aktivisten der erfolgreichen Kampagnen gegen Landminen und Streumunition, an denen Wareham zuvor mitgearbeitet hatte, organisierten viele Veranstaltungen, um die Aufmerksamkeit auf die Opfer zu lenken – etwa indem sie Pyramiden aus Schuhen aufschichteten oder eine rund zwölf Meter hohe Skulptur eines dreibeinigen Stuhls als Mahnmal errichteten, der noch heute vor dem UN-Gebäude in Genf steht. „Habt ihr jetzt also eure ersten Opfer?“, frage ich Wareham. „Ich weiß es nicht“, antwortet sie. „Aber jetzt können wir auf Widersprüche wie in diesem Fall hinweisen.“

Tatsächlich war es schwer genug, überhaupt so weit zu kommen – es dauerte fast ein Jahrzehnt, bis die Welt Killerroboter ernst nahm. 2007 stellte ein Journalist Sharkey bei einer Pressekonferenz eine Frage zu Militärrobotern. Der Wissenschaftler wusste gar nichts darüber und wollte eines Abends schnell mal online danach suchen. Ein halbes Jahr lang blieb er praktisch wie angewurzelt sitzen und las militärische Entwicklungspläne. Er erfuhr, dass die USA Terminator-ähnliche Killerroboter bauen und mit künstlicher Intelligenz ausstatten wollten. „Ich war schockiert und entsetzt“, sagt er. In seinem ersten Leitartikel zu dem Thema im britischen „Guardian“ warnte er, dass Roboter nicht zwischen Waffen und Nichtwaffen unterscheiden könnten: „Ich kann mir vorstellen, wie ein kleines Mädchen abgeknallt wird, weil es einem Roboter sein Eis zum Probieren hinhält.“ Er begann Vorträge zu halten, aber es geschah wenig, auch als er mit zwei anderen Wissenschaftlern die ICRAC-Initiative aus der Taufe hob.

„Mit Killerrobotern braucht man keinen Staat mehr physisch zu besetzen. Man könnte ihn per Luftüberwachung übernehmen. Wenn es so etwas gäbe wie die Besetzung des Luftraums und Massenüberwachung – mit Sensoren überall, die jede Bewegung aufzeichnen,
ebenso alles, was man sagt – erschiene mir das sehr stasimäßig. Ich möchte keine dystopische Zukunft mit Massenüberwachung und Autoritarismus. Und wenn künstliche Intelligenz in viele verschiedene Bereiche vordringt, in Waffenysteme auf dem Meer oder am Himmel – wie kämpft man dagegen? Ich fürchte, es wird vermehrt zu terroristischen Aktivitäten kommen. Egal, ob man sie Aufständische oder Terroristen nennt: Wenn solche Menschen zornig werden, weil sie merken, dass man den Staat nicht mehr von Angesicht zu Angesicht bekämpfen kann, werden sie einen Weg finden, diese Frustration zum Ausdruck zu bringen – und dabei wahrscheinlich Wehrlose treffen.“
Heather Roff, Forscherin an der Arizona State University

2012 war eine Handvoll Gruppen aus der Zivilgesellschaft für das Problem sensibilisiert. Wareham reiste nach Sheffield, um Sharkey zu treffen. Sie wollte mehr über ICRAC herausfinden und ihm davon berichten, dass Human Rights Watch eine Kampagne gegen vollautonome Waffen plante. Es wurde ein langes Gespräch, die beiden redeten vier Stunden lang. Danach hatte Wareham einen neuen Verbündeten. Der offizielle Startschuss für die Kampagne fiel dann im April 2013 in London. Um deutlich zu machen, dass sie Technologie durchaus schätzen, brachten die Aktivisten einen freundlichen Roboter mit, der vor dem Parlamentsgebäude Sticker mit der Aufschrift „STOP KILLER ROBOTS“ verteilte.

Als sie erstmals an die Öffentlichkeit gingen, lachten noch eine Menge Leute über die Aktivisten – denn sie schienen verrückt zu sein. Wareham erinnert sich an die erste Geschichte in der „New York Times“, in der sie irgendwo zwischen der Tea Party und der feministischen Code-Pink-Bewegung einsortiert wurden. „Nach dem Motto: Lasst uns mal diese radikalen Leute interviewen. Und ich dachte mir: Okay, ihr könnt uns gern in diese Schublade stecken, wenn ihr wollt.“

Solche Kommentare sind typisch für Wareham. Sie ist voller positiver Energie, frenetisch kompetent und jongliert immer mit hundert Aufgaben zugleich. Manchmal rutscht ihr dann etwas aus der Hand, ihr übervoller Rucksack etwa oder die Füllung ihres Sandwiches, die sie mitten im Gespräch mit Servietten wieder einsammelt.

Beim CCW-Treffen 2013 wurde darüber abgestimmt, ob LAWS im nächsten Jahr auf der Tagesordnung stehen sollten. „Das war nervenaufreibend“, erinnert sich Sharkey. Jedes Land hätte ein Veto gegen den Terminkalender einlegen können. „Aber als diese Nichtregierungsorganisationen gemeinsame Sache mit uns machten, kamen wir endlich von der Stelle“, sagt er. Der Zusammenhalt unter den Mitstreitern habe gut getan: „Es gab Zeiten, da war ich total deprimiert, um ehrlich zu sein.“ Viele Jahre war er unterwegs gewesen, um über Killerroboter zu sprechen, immer wieder, und hatte das Gefühl, gegen Wände zu laufen.

Die CCW debattierte erstmals 2014 über tödliche autonome Waffensysteme. Manchmal ging es dabei zu wie im Zirkus. Die Delegierten stritten darüber, ob LAWS bereits existierten, ob sie je existieren werden und was sie überhaupt waren. Im folgenden Jahr unterzeichneten mehr als tausend Wissenschaftler einen offenen Brief, in dem sie ein Verbot forderten – darunter der Physiker Stephen Hawking, aber auch Tesla-Gründer Elon Musk und der Linguist Noam Chomsky. „Es steht viel auf dem Spiel“, heißt es in dem Brief. „Sobald eine größere Militärmacht die Entwicklung von Waffen mit künstlicher Intelligenz vorantreibt, ist ein weltweites Wettrüsten praktisch unvermeidbar.“

Wareham war erfreut, als sie davon hörte. „Wenn Leute anfangen, so etwas zu tun, und man wusste davon gar nichts, dann wird einem klar, dass die Bewegung wirklich durchstartet“, sagt sie. Aber mir erschien es nicht so einfach. Wenn Länder erst mal angefangen haben, LAWS zu entwickeln, was kann sie dann noch bremsen? Vor allem wenn sie den Eindruck haben, dass ihre Gegner dasselbe tun. Während wir darüber sprachen, Einhörner zu verbieten – etwas so weit Entferntes und Magisches, dass wir scheinbar alle Zeit der Welt haben, um darüber zu debattieren – entwickelte sich die Technologie rasend schnell weiter.

Am nächsten Konferenztag sitze ich mit Wareham draußen vor dem Auditorium, um über den Stand der Verhandlungen zu sprechen. Mexiko hat sich für ein Verbot ausgesprochen und Wareham hat das Land als zwölftes in ihre Liste aufgenommen. Die russische Delegation verzögert weiter selbstgefällig die Gespräche über die Notwendigkeit von Definitionen, während die USA behaupten, dass autonome Waffen die Zahl der zivilen Opfer verringern würden. Ich bin an diesem Tag in Genf mehr denn je überzeugt, dass die CCW zu den lächerlichsten Veranstaltungen gehört, die ich je erlebt habe.

Der Chef der US-Delegation geht an uns vorbei. „Hey, wie geht es euch?“, fragt Michael Meier auf die etwas steife Art, die Regierungsbeamte seines Schlages oft selbst ein wenig wie Roboter erscheinen lassen. „Ich hatte die Hoffnung, dass ich noch einen Aufkleber von euch bekommen kann.“ Als er weitergezogen ist, wendet sich Wareham mir zu und fängt an zu kichern: „Man verteilt Aufkleber gegen Killerroboter, und ausgerechnet der Vertreter des Verteidigungsministeriums kommt an und sagt: Ich will unbedingt einen haben!“ Und dann erzählt sie, wie der deutsche Vertreter sich gleich fünf Sticker abgeholt hat. Die kleben jetzt als Warnschilder auf den Zimmertüren seiner fünf Töchter. „Genau deswegen haben wir die Dinger gemacht – um Aufmerksamkeit zu erzeugen und ins Gespräch zu kommen.“

Doch auch wenn Wareham es mir wieder und wieder geduldig erklärt hat, kann ich mir nicht vorstellen, wie ihr Einsatz bei der CCW konkrete Ergebnisse bringen soll. Die Mitarbeiter der Kampagne scheinen fest an die Macht des Engagements zu glauben – auf eine Art, die sich wie eine Erinnerung an eine bessere Zeit anfühlt: die Zeit vor dem 11. September, vor Guantánamo, vor Snowden, bevor der globale Dschihad jede außenpolitische Entscheidung der USA innenpolitisch für die Öffentlichkeit akzeptabel machte.

Wareham räumt das selbst bereitwillig ein. Als sie studierte, weckte die Perestroika Hoffnung, die Berliner Mauer fiel, und wo zuvor Ost- und Westdeutschland gewesen waren, gab es nur noch Deutschland. Ihre Lehrbücher konnten mit dem Tempo des Wandels kaum mithalten. Wareham schrieb ihre Doktorarbeit über Landminen. Sie engagierte sich in der Kampagne für ein Verbot dieser Minen – und Jody Williams, die Sprecherin der Kampagne, wurde ihrer Mentorin.

Williams erhielt 1997 für ihren Glauben an die Kraft des Aktivismus den Friedensnobelpreis. Als bei der CCW Versuche fehlschlugen, den Einsatz von Landminen zu verbieten, zog die kanadische Regierung die Sache an sich, lud im Dezember 1997 nach Ottawa ein und forderte die anwesenden Staaten auf, einen Vertrag zu unterzeichnen, der diese Waffen verbot. Inzwischen sind 162 Länder Vertragsparteien – die USA, Russland, Israel, Indien, Pakistan und China zählen nicht dazu. 2007 arbeiteten Williams und Wareham an der Kampagne für ein Verbot von Streumunition. Wieder versagte die CCW, wieder trugen die beiden den Vertragsprozess nach außen – diesmal nach Oslo. Sie räumen ein, dass durch die Kampagnen weder Landminen noch Streumunition beseitigt wurden. Aber sie machen geltend, dass sie deren Einsatz drastisch reduziert und eine internationale Norm durchgesetzt haben.

Doch irgendetwas an LAWS fühlt sich anders an, in gewisser Weise unausweichlich. „Es gibt immer eine Wahl“, hält Williams dagegen. „Wir entscheiden uns entweder, das geschehen zu lassen, oder wir kämpfen. Ich entscheide mich fürs Kämpfen. Vielleicht haben wir keinen Erfolg, aber unausweichlich ist es nicht. Das ist ein großer Unterschied.“

Alle Abrüstungsbewegungen setzen auf ähnliche Taktiken: Zur Rezeptur gehören zivile Opfer, ein Land als Vorkämpfer und viele Teamplayer. Doch nach zwei Tagen auf der CCW-Konferenz gibt es noch keinen Anführer unter den Staaten, die ein Verbot fordern. „Die meisten sind Entwicklungsländer, und dann ist da der Heilige Stuhl“, erklärt Wareham. „Wir brauchen ein westliches Land.“ Aber keines will ihrer Aufforderung folgen. Wareham lässt sich davon nicht entmutigen. Immerhin sei ja Mexiko dabei.

Je mehr Zeit ich mit der CCW verbringe, desto größer wird meine Sorge, dass es ungeachtet des Ergebnisses zu spät sein könnte. Die Regierungsexperten würden ein weiteres Jahr oder auch zwei brauchen. Sogar im günstigsten Fall würde es mit dem Vertragsentwurf noch ein Jahr dauern. Und wo wären wir dann?

Paul Scharre ist Senior Fellow am Center for New American Security, einer Denkfabrik in Washington. Als ehemaliger Leiter der Arbeitsgruppe des US-Verteidigungsministeriums, die die Direktive 3000.09 verfasste, sieht er keine Notwendigkeit, über ein generelles präventives Verbot zu diskutieren. Bei einem Kaffee im Foyer des Konferenzsaals spricht er mit der Lockerheit eines Politikers, der seine Standardrede hält, und mit seinem zurückgekämmten braunen Haar und dem sorgfältig getrimmten Bart sieht er auch fast so aus. Seine Bedenken setzen schon bei einer „bedeutsamen menschlichen Kontrolle“ der Waffen an, wie sie die Aktivisten fordern. Diese Definition erscheint ihm ähnlich ungenau wie das „angemessene Maß menschlicher Beurteilung“, an dem sein Ex-Arbeitgeber beim Einsatz autonomer Waffen festhalten will.

Er versucht seinen Punkt an einem Beispiel deutlich zu machen, bei dem Schwarz und Weiß zunächst klar verteilt scheinen: Angenommen, wir hätten eine Waffe, die Osama bin Laden ins Visier nimmt. Der Mensch, der sie bedient, sieht bin Laden, wie er um ein Gebäude herumläuft, und lässt die Waffe los wie einen Kampfhund – dann würde man sagen, dass der Mensch die Kontrolle hat. Aber nun rennt bin Laden ins Gebäude hinein. Die Waffe bekommt den Befehl, ihm weiter zu folgen, doch es ist unklar, was drinnen los ist. Was, wenn er ein sich ein menschliches Schutzschild nimmt? Wie stark wird die Explosion beim Einsatz der Waffe sein? Was, wenn jemand anderes verletzt wird? Und was wäre, wenn man lediglich wüsste, dass bin Laden irgendwo in der Stadt ist, und man der Waffe befehlen würde, ihn dort zu jagen?

„Es ist nicht klar, wo die Grenze verläuft, oder?“, fragt Scharre. „An irgendeinem Punkt wird eine Schwelle überschritten, jenseits derer der Bediener die konkreten Umstände des Angriffs nicht mehr genau kennt. Wo es fragwürdig wird, noch zu behaupten, diese Person sei auf ‚bedeutsame‘ Art beteiligt. Vielleicht hat sie den Prozess gerade in Gang gesetzt – und ist danach ein Sandwich holen gegangen. Da verschwimmen die Grenzen.“

Diese Diskussion müssten Staaten auf internationaler Ebene führen, findet Scharre. Auch wenn er nicht damit rechnet, dass dabei Einigkeit erzielt werden kann. „Die Wahrscheinlichkeit, dass die CCW ein rechtlich bindendes Verbot autonomer Waffen beschließt, ist praktisch gleich null, weil jeder einzelne Staat zustimmen muss“, sagt er.

Und selbst wenn Menschen das System außer Kraft setzen können, um einen Angriff zu stoppen – wie wahrscheinlich ist es, dass sie das tun werden? Es ist bekannt, dass Menschen sich der Maschine beugen. Man bezeichnet das als übersteigertes Vertrauen in die Automation. Erscheint zum Beispiel eine rote Wellenlinie unter einem Wort, das man tippt, kommen Zweifel auf, selbst wenn man ziemlich sicher ist, wie es geschrieben wird. Wächst die Komplexität eines Systems, wird es immer schwieriger, dessen Verhalten unter allen denkbaren Bedingungen zu testen. Je mehr Programmcode, desto mehr Elemente, die ausfallen oder falsch programmiert sein können. Wie lassen sich bei autonomen Waffen auch nur ansatzweise alle möglichen Ereignisse vorausahnen, die im Nebel des Krieges eintreten könnten? Wie soll man jemals mit Sicherheit vorhersagen können, dass diese Waffen innerhalb der Regeln für bewaffnete Konflikte operieren werden?

Untersuchungen zu künstlicher Intelligenz und Maschinen, denen das Denken beigebracht wird, haben gezeigt, dass neuronale Netzwerke Bilder auf eine Weise klassifizieren, die für Menschen keinen Sinn ergibt. Noch beunruhigender ist es, dass Menschen nicht wissen, warum Maschinen etwas so sehen, wie sie es sehen – es gibt keine Möglichkeit, diese Fehler auszuschließen. Das macht es schwierig, vorherzusagen, wie genau ein System versagen oder wie es die verfügbaren Daten interpretieren wird.

Was noch schlimmer ist: Im Fall einer Fehlfunktion könnten die Dinge in mehreren Bereichen des Systems dramatisch schieflaufen, sobald diese miteinander interagieren. Auch wenn Menschen indirekt beteiligt sind, verringert sich in zunehmend komplexen Systemen die Wahrscheinlichkeit, dass sie genau wissen, wo der Fehler steckt. Und je länger es dauert vom Auftreten der Fehlfunktion bis ein Mensch herausfindet, wie sie korrigiert werden kann, desto größer ist der Schaden.

Schließlich können die Vorzüge autonomer Systeme durch Hackerangriffe und Täuschungsmanöver im Handumdrehen verloren gehen. „Sie glauben vielleicht noch, dass Sie über strategische Überlegenheit verfügen, und dann ändert sich das binnen dreißig Sekunden, nach einem Software-Upgrade auf der anderen Seite“, sagt Russell. „Oder jemand hat sich in Ihre Software gehackt, herausgefunden, welche Algorithmen dort laufen – und schon lässt sich vorhersagen, in welchem Gebiet Sie operieren werden.“ Die schnelle Entwicklung der Technik beunruhigt auch die Aktivisten. „Ich bin in größerer Sorge als am Anfang, weil wir viele neue Technologien nicht einmal vorausahnen können“, sagt Sharkey.

„Hätten Sie mir das vor zehn Jahren erzählt, hätte ich gesagt, das ist alles Science-Fiction. Aber jetzt weiß ich es besser. Nehmen wir mal an, die USA lassen Waffen wie die X-47B in großen Schwärmen auf China los. Dann starten die Chinesen ihre Abwehrwaffen. Sie nehmen Kurs auf Kalifornien. Alle bewegen sich mit Überschallgeschwindigkeit. Niemand hat eine Ahnung, was geschehen kann, wenn zwei derartige Programme, deren Inhalt wir nicht kennen, gegeneinander antreten. Wenn es richtig gruselig werden soll, dann stelle man sich vor, dass jemand eine atomare Abwehrwaffe auf ein unbemanntes System montiert. Es kann völlig außer Rand und Band geraten. Das ist eine reale Gefahr.“
Noel Sharkey, Gründer des Internationalen Komitees für die Kontrolle von Roboterwaffen (ICRAC)

Nach dem Ende der Konferenz verlassen Wareham und ich das UN-Gelände, Flaggen knattern im Wind, die idyllische Umgebung kontrastiert mit den trostlosen Zukunftsperspektiven. Am Tag zuvor sind Nicaragua und Chile auf Warehams Liste gekommen. Wareham ist deswegen nicht aus dem Häuschen, aber sie gibt die Hoffnung auf die CCW nicht auf. „Das ist der Prozess, auf den wir uns eingelassen haben, nun müssen wir auch dranbleiben“, sagt sie.

Wir gehen durch die schimmernd weiß verzierten Torbögen des Gebäudes und den von gepflegtem Grün eingefassten Zugangsweg entlang. Vor uns ragt die Statue des zerbrochenen Stuhls auf. Ich bin nach wie vor alles andere als überzeugt, dass diese Tage in Genf den Anfang vom Ende eines Albtraums markieren, der längst begonnen hat. Die Technologie und der Wille, tödliche autonome Waffensysteme einzusetzen, sind bereits vorhanden. Und jeder Monat bringt Innovationen, die niemals mehr zurückgedreht werden können.

Wareham ist schon bei den nächsten Aufgaben – der Konferenz im Dezember, der dann anstehenden Abstimmung über die Expertengruppe und der Chance auf anschließende Verhandlungen. Immer nachdenklich, stets optimistisch: „Nimm die richtigen Zutaten, wähle das richtige Timing, bau das Vertrauen der Diplomaten auf, lass sie denken, dass eine Riesenbewegung hinter dir steht. Halte dich bereit. Dann sagen irgendwann alle: Los geht’s! Wir verhandeln – und dann, 18 Monate später, sind wir durch! Im Ernst: Es geht jetzt darum, alles auf der Reihe zu haben für den Zeitpunkt, an dem alle so weit sind!“ Wareham wendet sich mir zu und lacht.

Übersetzung: Kerstin Eitner

In unserer Magazin-App analysiert das Video „Virtuelles Schlachtfeld“ die engen Verflechtungen zwischen der Computerspiel- und der Rüstungsbranche.

MÖRDERISCHE AUTOMATEN
X-47 B
Das „unbemannte Luftkampfsystem“ X-47B habe Luftfahrtgeschichte geschrieben, jubelte im April 2015 der US-Rüstungskonzern
Northrop Grumman: Es war geglückt, den Flugroboter in der Luft zu betanken. Das Serienmodell mit den Fähigkeiten eines Tarnkappen-Kampfjets, der auf den Prototypen folgen soll, muss am Boden nur noch neue Munition laden.

GUARDIUM
Als „zusätzliches Augenpaar in gefährlichem Gelände“ bezeichnete einer der israelischen Soldaten, die den Guardium seit 2008 entlang der Grenze zum Gaza-Streifen einsetzen, den führerlosen Panzerwagen. Tatsächlich ist das bis zu achtzig Stundenkilometer schnelle, geländegängige Fahrzeug weit mehr: ein autonomer Spähpanzer mit Hightech-Sensoren, die Giftgas ebenso ausmachen wie herannahende Raketen.

MAARS
„Kraftvoll. Zur Waffe gemacht. Kampferprobt“: Mit diesem markigen Slogan wirbt der Hersteller Quinetiq für das „Modular Advanced Armed Robotic System“. 400 Schuss im MG-Magazin, ein vierrohriger Granatwerfer und sieben Kameras zur Orientierung – so soll der
Killerroboter vom Typ MAARS ab 2018 Seite an Seite mit US-Marinesoldaten ins Gefecht ziehen. Er folgt dem mobilen Tötungsautomaten „Swords“ nach, der ab 2007 im Irakkrieg zum Einsatz kam.

HARPY
„Fire and forget“ nennt man die Fähigkeit von Lenkflugkörpern wie der autonomen israelischen Kampfdrohne Harpy (englisch für Harpyie) im Militärjargon. Abschießen und vergessen – denn der Flugroboter sucht sich bei Tag oder Nacht, über jedem Gelände und bei jedem Wetter selbständig seinen Weg zum Ziel, kann dort stundenlang kreisen, bis die Bedingungen optimal sind, und trifft dann im Kamikaze-Sturzflug mit tödlicher Präzision.

ARMATA
Auf der Moskauer Siegesparade zum 70. Jahrestag des Kriegsendes präsentierten die russischen Streitkräfte 2015 erstmals den neuen „Armata“. Der Panzer ist mit einem ferngesteuerten Geschützturm ausgestattet. Künftig soll der Armata zur vollständig autonomen
Kampfmaschine werden, die ohne menschliche Besatzung über das Schlachtfeld rollt.

SGR A1
Dieser „Wachmann“ kennt weder Angst noch Müdigkeit. Er sei dafür gemacht, „menschliche Beschränkungen zu überwinden“, so der Hersteller Samsung. Mithilfe von Kamera und Infrarotsensor identifiziert der erste vollautomatische Kampfroboter der Welt potenzielle Gegner. Wenn sich ein Unbekannter einer Grenze nähert, kann er ein Losungswort abfragen – und auf falsche Antworten reagieren, indem er ohne Rücksprache mit menschlichem Bedienpersonal das Feuer eröffnet.