Publikationen / vorgänge / vorgänge Nr. 218: Rückkehr zum gerechten Krieg?

Autonome Drohnen – die besseren Waffen?

Kampfdrohnen und autonome Waffensysteme aus Sicht der Theorie(n) des gerechten Krieges, in: vorgänge Nr. 218 (Heft 2/2017), S. 43-53

Die derzeitigen Kriege des Westens sind vom Einsatz neuer Waffentechnologien wie den Drohnen geprägt. Sie bieten sich als Alternative zum personalintensiven und risikoreichen Einsatz von Bodentruppen an und versprechen zugleich präzisere Militärschläge mit weniger zivilen Opfern. Dennoch bleibt ihr Einsatz hoch umstritten – unter anderem auch, weil sie die Hemmschwelle für militärische Interventionen deutlich gesenkt haben.

Die Theorie des gerechten Krieges, genauer gesagt zwei Varianten ihrer Auslegung, liefert unterschiedliche Antworten darauf, wann und unter welchen Umständen bzw. mit welchen Einschränkungen eine Anwendung von Drohnen und autonomen Waffensystemen zulässig sei. Bernhard Koch und Niklas Schörnig geben einen kurzen Überblick über die Entwicklung dieser Systeme und stellen die ethischen Streitfragen vor.

Die militärische Robotik verzeichnet in den letzten zehn Jahren eine besonders dynamische Entwicklung. Immer mehr Militärs weltweit greifen auf Roboter zurück, speziell bei Aufgaben, die für Menschen zu dreckig (dirty), zu langweilig (dull) oder zu gefährlich (dangerous) wären. Unbemannte Flugsysteme (UAVs – unmanned aerial vehicles), oft auch als „Drohnen“ bezeichnet, sind die bekannteste und am weitest verbreitete Variante militärischer Roboter. Daneben gibt es weitere, u.a. ferngesteuerte Systeme zur Bombenentschärfung oder führerlose Boote.

Mehr als 90 Staaten setzen inzwischen militärische Drohnen zur Aufklärung und Überwachung ein, und mehr als 30 Staaten streben nach bewaffneten Systemen oder haben diese schon in ihren Arsenalen (Sayler 2015: 5). Inzwischen verfügen sogar nichtstaatliche Akteure, wie z.B. der IS, über kommerzielle Drohnen, die nachträglich bewaffnet wurden. Allerdings hat sich nicht nur die reine Anzahl ferngesteuerter Systeme oder die Zahl der sie nutzenden Akteure erhöht. Auch ihre technologische Leistungsfähigkeit wurde in den vergangenen Jahren deutlich gesteigert. Militärische Roboter sind zumindest aus den Arsenalen fortschrittlicher Armeen praktisch nicht mehr wegzudenken.

Militärische Roboter, besonders aber ihre bewaffneten Varianten, werfen eine Vielzahl von kritischen Fragen auf. Neben der taktischen respektive strategischen und rechtlichen Dimension betrifft dies vor allem auch ethische Fragen. Man erinnere sich nur an die heftige Diskussion, die die Aussage des damaligen Verteidigungsministers de Maizière auslöste, Kampfdrohnen seien, wie alle Waffen, ethisch neutral zu betrachten (Jungholt/Meyer 2012). Diese Debatte dauert im Kern noch an und wird durch die zunehmende technologische „Selbstständigkeit“ moderner Waffensysteme noch gesteigert.

Die rasante Entwicklung militä­ri­scher Robotik seit der Jahrtau­send­wende

Eine zentrale Ursache des Booms militärischer Robotik ist der schnelle, sich in einigen Bereichen sogar beschleunigende technologische Fortschritt, der unbemannte Systeme möglich werden lässt, die noch vor wenigen Jahren technisch undenkbar gewesen wären. Zumindest in den technologisch fortgeschrittenen Staaten kommt inzwischen praktisch kein Waffensystem mehr ohne Elektronik aus. Dabei liegen die treibenden Kräfte nicht mehr in Forschungslaboren der Rüstungskonzerne, sondern im zivilen Bereich (Gilli/Gilli 2017: 2). Dies gilt auch, bzw. vor allem, für die militärische Robotik, auch wenn das Militär an der einen oder anderen Stelle zumindest Ideengeber war, z.B. mit der 2004 durch die Defense Advanced Research Projects Agency initiierte Grand Challenge, die als Startpunkt autonom fahrender Landfahrzeuge gesehen werden kann.

Unter dem Begriff „militärische Robotik“ kann man auf einer ersten Ebene vor allem den Bereich unbemannter, aber ferngesteuerter Systeme verstehen. Auch wenn immer mehr Aufgaben durch Computer übernommen werden oder der Computer den menschlichen Operator unterstützt (z.B. indem vorgegebene Wegpunkte automatisch abgeflogen werden), trifft ein Mensch immer noch alle zentralen Entscheidungen – speziell wenn es um dem Einsatz tödlicher Gewalt wie bei den US-Kampfdrohnen-Missionen geht. Diese Systeme zeichnen sich vor allem durch sehr lange „Stehzeiten“ aus, also das Vermögen, zum Teil ein bis zwei Tage lang in der Luft zu bleiben. Auch spielt bei diesen Systemen die deutlich gestiegene Bandbreite der Kommunikationsverbindungen eine wichtige Rolle. Sie ermöglicht es, hochaufgelöste Filme in Echtzeit zu übertragen und so weit entfernten Kommandostellen ohne Verzögerung ein Lagebild im Einsatzgebiet zu liefern – und das über die gesamte Missionszeit. Der Einsatz solcher Militärroboter kann die Gefährdung für die eigenen Kräfte signifikant reduzieren und ermöglicht deshalb neue Missionen, die mit bemannten Systemen schlicht als zu gefährlich verworfen würden. Dies ist ein von Befürwortern unbemannter bewaffneter Systeme besonders häufig vorgebrachtes Argument. Kritiker verweisen hingegen auf die stark umstrittene Praxis der Vereinigten Staaten, bewaffnete Drohnen im Rahmen „gezielter Tötungen“ gegen mutmaßliche Terroristen im Graubereich des Völkerrechts einzusetzen. Sie argumentieren, dass die minimierte Gefahr eigener Verluste die Hemmschwelle für den tödlichen Einsatz senkt.[1]

Eine zweite, weitergehende Sichtweise auf militärische Robotik nimmt die zunehmende Fähigkeit vieler militärischer Systeme in den Blick, Einsätze praktisch ohne menschliches Zutun durchzuführen. Experten sprechen in diesem Zusammenhang von „autonomen Waffensystemen“ bzw. „letalen autonomen Waffensystemen“ (LAWS), wenn sie gegen Menschen eingesetzt werden. Was genau unter einem „autonomen Waffensystem“ zu verstehen ist, ist umstritten. Eine erste und sehr hilfreiche Annährung bietet die Direktive 3000.09 des amerikanischen Department of Defense vom 21.11.2012, die unter einem „autonomen Waffensystem“ folgendes versteht:

A weapon system that, once activated, can select and engage targets without further intervention by a human operator. This includes human-supervised autonomous weapon systems that are designed to allow human operators to override operation of the weapon system, but can select and engage targets without further human input after activation“.[2]

Zwei Aspekte sind an der Definition besonders bemerkenswert: Erstens erfolgen Zielauswahl und Zielbekämpfung durch ein System ohne weiteren menschlichen Input. Den Menschen kommt zweitens bestenfalls die Rolle einer Überwachungsinstanz mit der Möglichkeit zum Abbruch der Operation zu; im schlechtesten Fall werden sie zu Zuschauern degradiert, die sich vollständig auf die Computeralgorithmen des Systems verlassen müssen, ohne eingreifen zu können.

Wer nun glaubt, solche Systeme seien reine Science Fiction-Fantasien, irrt. Es gibt heute schon Waffensysteme, die die genannten Anforderungen zumindest rudimentär erfüllen könnten – sofern man sie in den (oft vorhandenen) vollautomatischen Modus stellen würde. Hierbei handelt es sich bislang um Selbstverteidigungssysteme zum Schutz von Schiffen oder Lagern, die anfliegende Raketen oder Granaten selbstständig detektieren und bekämpfen. Technisch vorstellbar, wenn auch noch nicht zuverlässig umsetzbar, sind z. B. Systeme, die auf einem Schlachtfeld alle Personen angreifen, die nicht durch einen speziellen Sender als „Freund“ gekennzeichnet sind oder die auf Basis einer Gesichtserkennungssoftware bestimmte Zielpersonen in einer Gruppe identifizieren und töten. Gegenüber den aktuell mit Kampfdrohnen praktizierten „gezielten Tötungen“ wäre dies eine neue Stufe. Noch setzt kein Staat vollautonome Waffen gegen Menschen ein. Die Systeme, die autonom eingesetzt werden könnten, sind bewusst immer noch von menschlicher Zustimmung abhängig.

Die aktuell wohl größte Hürde für solche Systeme ist, dass sie – zumindest zum jetzigen Zeitpunkt – nicht in der Lage sind, zentrale Forderungen des Internationalen Humanitären Völkerrechts (IHL) angemessen umzusetzen, wie z.B. die Unterscheidung zwischen Kombattanten und Zivilisten oder der proportionale Einsatz der Mittel zum angestrebten militärischen Ziel (Human Rights Watch 2012). Es ist aber nicht auszuschließen, dass die Technologie voranschreitet und eine adäquate Umsetzung des Völkerrechts in den Bereich des Möglichen rückt. Deshalb gilt es, neben der rechtlichen Seite auch die ethische Seite der militärischen Robotik und die mit ihr verbundenen strategischen Entwicklungen zu betrachten. Dies soll im Folgenden geschehen. Wir greifen dabei auf die Unterscheidung zwischen ferngesteuerten und autonomen Systemen sowie zwei Varianten der Theorie des gerechten Krieges zurück.

Militä­ri­sche Robotik und die Theorie des gerechten Krieges

Kampf­drohnen und gezielte Tötungen

In den letzten eineinhalb Jahrzehnten (vor allem nach dem Irak-Krieg) ist die Diskussion um die Theorie des gerechten Krieges (TGK) wieder neu entflammt, hat bedeutende Wendungen genommen und wird nun auch auf die ethischen Probleme des Einsatzes militärischer Robotik angewandt. Die zentrale Entwicklung dieses ethischen Ansatzes zur Rechtfertigung, aber auch zur Beschränkung von bewaffneten Konflikten liegt im Wandel vom normativen Kollektivismus hin zum Individualismus. Während beispielsweise der bedeutendste Vertreter der TGK, der Sozialphilosoph Michael Walzer, in seinem Standardwerk „Gibt es den gerechten Krieg?“ (1977; vgl. auch Walzer 2004) noch ganz vom Krieg als einem kollektiven Unternehmen ausging, stehen die sogenannten „Revisionistischen Theoretiker_innen“ (RTGK) einem liberalen Individualismus nahe, der nicht auf Gruppenzugehörigkeit, sondern individuelle „Haftbarkeit“ (liability) abstellt (McMahan 2004; McMahan 2011). Bei Walzer ist Krieg eine Handlung, die politische Gemeinschaften vornehmen. Die politische Führung begeht ein Verbrechen, wenn sie unberechtigterweise einen illegitimen bewaffneten Konflikt vom Zaun bricht. Auf die Soldat_innen wirkt sich diese Illegitimität aber nicht aus, denn sie unterliegen auf beiden Seiten den gleichen Pflichten, besitzen aber auch Rechte, die sich aus dem „Recht im Krieg“ (ius in bello) ergeben. Zu den Rechten gehört z.B., für Tötungshandlungen an Soldat_innen der Gegenseite nicht zur Rechenschaft gezogen zu werden, solange man nicht gegen Pflichten (etwa das Verbot, kampfunfähige oder gefangene Gegner zu töten) verstößt. Anders ausgedrückt: Wenn die Kämpfer gemäß der Regeln töten, ist ihnen das nicht moralisch anzulasten. Warum und für welche Ziele sie kämpfen, ist irrelevant (Walzer 1977). Diese Sicht drückt sich heute im Wesentlichen im humanitären Völkerrecht aus.

Die revisionistische Theorie des gerechten Krieg hingegen lehnt diese Gleichstellung aller Soldat_innen und ihre damit einhergehende moralische Entlastung ab. Für sie gibt die individuelle Selbstverteidigungssituation das normative Muster ab, von dem her auch bewaffnete Konflikte gedacht werden müssen. Hier hilft eine Analogie aus dem zivilen Leben: Einem Angreifer steht im Falle eines ungerechten Überfalls, wenn er in gerechter Notwehr oder von dritten Personen in gerechter Nothilfe gewaltsam gestoppt wird, selbst keine Notwehr zu; er kann eigene Gewalt nicht damit entschuldigen. Übertragen bedeutet das: Wer sich an einem ungerechten Krieg beteiligt, ist nach dieser Theorie moralisch haftbar und kann sich nicht beschweren, wenn er/sie selbst angegriffen wird. Für Revisionist_innen ist kriegerische Gewalt also multiplizierte individuelle Gewalt.

Eine Schwierigkeit dieses Ansatzes liegt darin, dass sie der politischen Natur von bewaffneten Konflikten nicht ganz gerecht wird. Ein Vorteil dieser individualistischen Sichtweise hingegen ist, dass man sie einfacher auf die Beteiligung von nichtstaatlichen Kriegsakteuren und die sich immer weiter individualisierende Militärtechnologie anwenden kann. Die Entwicklung und Nutzung von bewaffneten Drohnen hat, wie oben angedeutet, die Praxis der sogenannten „gezielten Tötungen“ erheblich ausgedehnt. Gezielte Tötungen sind natürlich nicht nur mit bewaffneten Drohnen – also militärischer Robotik – möglich. Aber dass sie insbesondere am Ende des letzten Jahrzehnts so häufig geworden sind, hat selbstverständlich auch mit der technischen Verfügbarkeit des Instruments und den relativ gefahrlosen Einsatzmöglichkeiten zu tun.

Der Unterschied in den beiden ethischen Herangehensweisen kann an einem Drohneneinsatz gut verdeutlicht werden:

Die sogenannte „traditionelle Theorie des gerechten Krieges“ bei Michael Walzer unterschied gewissermaßen verschiedene normative Wirklichkeiten: die Wirklichkeit des Alltagslebens und die Wirklichkeit des Krieges. Krieg gilt hier als ein normativer Sonderzustand. Entsprechend ist für die ethische Bewertung von Drohneneinsätzen nur zu fragen, ob erstens tatsächlich ein Krieg bzw. bewaffneter Konflikt zwischen zwei oder mehreren politischen Gemeinschaften vorliegt, und ob zweitens das Mittel der Kriegsführung dem ius in bello (also dem humanitär-völkerrechtlichen Bestimmungen, z. B. den Genfer Konventionen und seinen Zusatzprotokollen) entspricht. Sind diese beiden Bedingungen erfüllt, ist der Einsatz bewaffneter Drohnen aus theoretischer Sicht legitim und völkerrechtlich legal.

Für den Revisionismus in der Theorie des gerechten Krieges hingegen müssen sich Gewalthandlungen daran messen, ob sie individuelle Rechtsverletzungen verhindern. Krieg wird nach den gleichen normativen Regeln betrachtet, mit denen wir auch Gewalt im Alltag beurteilen würden. Es kommen also die oben diskutierten Bedingungen legitimer Selbstverteidigung (oder eben Fremdverteidigung) ins Spiel. Eine entscheidende Frage in diesem Zusammenhang ist, ob die eingesetzte Gewalt nötig ist, um die widerrechtliche Gewalt des Angreifers abzuwehren. Das ist sie nur dann, wenn der widerrechtliche Angriff schon stattfindet oder zumindest unmittelbar bevorsteht. Die Bedingung des „immediate threat“ ist für legitime Verteidigung ein entscheidendes Kriterium. Es ist unzulässig, Soldat_innen oder Kämpfer_innen zu töten, die aktuell oder auf absehbare Zeit keine Bedrohung darstellen, so dass sie noch mit anderen, milderen Mitteln zu stoppen wären. Militärische Robotik, gerade ferngesteuerte und autonome, bewirkt aber schon oft im Vorfeld, dass es zu dieser unmittelbaren Bedrohung nicht kommt, wenn potenzielle Angreifer entweder bereits präventiv gezielt getötet werden oder durch Fernsteuerung oder autonome Robotik eine Distanz geschaffen wurde, die ihnen gar keine Möglichkeit zur unmittelbaren Bedrohung lässt (vgl. Kahn 2002). Freilich können illegitime Angreifer_innen Dritte (also nicht die militärisch Intervenierenden) unmittelbar bedrohen. In solchen Fällen ist ein Einsatz möglicherweise zu rechtfertigen, falls es kein milderes Mittel zur Abwehr gibt (genauer bei Koch 2017a).

Im Endeffekt erfordert dieser Ansatz eine Beurteilung von Gewalteinsätzen auf der Basis dessen, was wir heute Grund- oder Menschenrechtssystematik nennen können (vgl. Geiß 2015). So darf beispielsweise keine Person mit tödlicher Gewalt angegriffen werden, wenn zur Abwehr der Bedrohung, die von ihr ausgeht, auch die Festnahme reichen würde. Hierfür eignen sich Drohnen – im Gegensatz bspw. zu Spezialkräften – nicht. Drohnen können nur beobachten und töten, sie kennen keine Zwischenstufen.

Andererseits ist im Falle einer legitimen Selbstverteidigung die illegitim angegriffene Person selbst nicht „haftbar“. Sie unterliegt keiner Pflicht, größere Risiken im Verteidigungsakt auf sich zu nehmen. Sie unterliegt aber einer Pflicht, die Risiken für unbeteiligte Dritte so gering wie möglich zu halten, denn auch diese dritten Personen sind nicht haftbar. Diese beiden normativen Momente können dazu führen, dass sich der legitime Verteidiger gewissermaßen moralisch gezwungen sieht, das präzise technologische Instrument aus der Distanz zu nutzen, das den „Kollateralschaden“ und die Bedrohung für ihn selbst möglichst gering hält. Daher plädieren auch „Revisionisten“ häufig (trotz des genannten Defizits bei der Unmittelbarkeitsbedingung) für den Einsatz von Drohnentechnologie (Strawser 2010). Eine eindeutige ethische Ablehnung des Einsatzes bewaffneter Drohnen lässt sich also auch nicht aus der revisionistischen Variante der Theorie des gerechten Friedens herauslesen; vielmehr gilt es, bei jedem individuellen Fall erneut abzuwägen.

Autonome Militär­ro­botik

Auch die Nutzung von LAWS lässt sich nach den beiden genannten Perspektiven beurteilen: Für die traditionelle TGK ist militärische Robotik nicht ausgeschlossen, wenn sich deren Gewalt an völkerrechtlichen Kernprinzipien messen lässt, also z.B. nur gegen klar identifizierbare und identifizierte gegnerische Kombattanten richtet. Es mag eine offene Frage sein, ob LAWS diese Unterscheidung technisch gelingt, oder ob sie die Verhältnismäßigkeit ziviler Kollateralschäden beurteilen können. Die technischen Unzulänglichkeiten schließen ihre Nutzung aber nicht generell aus.

Aus Sicht der oben skizzierten RTGK hingegen müsste auch ein autonomer Militärroboter erst einmal versuchen, eine Zielperson mit nicht-letalen Mitteln lediglich festzunehmen. Ebenso wenig wie ein Polizist einen in flagranti gestellten Mörder einfach erschießen darf, weil dieser über grundlegende Rechte verfügt, dürfte ein autonomer Roboter einen Gegner einfach so töten – selbst wenn dieser plant, einen illegitimen Angriff auf Menschen durchzuführen. Dies gilt umso mehr, als der Roboter natürlich keine Rücksicht auf sein eigenes „Überleben“ nehmen muss.

Jenseits der beiden Ansätze gibt es weitere ethische Fragen mit Blick auf autonome Waffensysteme: (1) Die Intuition, dass Maschinen nicht über das Leben von Menschen entscheiden dürfen, (2) die Vermutung einer Verantwortungslücke, (3) neu auftretende Risiken. Hier fällt die Bewertung ebenfalls uneinheitlich aus.

(1) Vielfach wird vorgebracht, dass autonome Waffensysteme nicht über Leben und Tod von Menschen „entscheiden“ dürfen. Das ist eine verwirrende Ausdrucksweise, denn eine Maschine entscheidet nicht im selben Sinne wie ein Mensch, der ein zeitlich ausgreifendes Bewusstsein hat, den Horizont einer Zukunft mit einbezieht oder Wertgesichtspunkte abwägt – was oft unbewusst geschieht (Scheffler 2013: 99). Das kann eine Maschine nicht, auch wenn sie einem hochkomplexen und selbst für den Entwickler nicht mehr ganz durchschaubaren Programm folgt. Wir deuten mit solchen Redeweisen das Verhalten von Maschinen mit anthropomorphen Ausdrücken, vom Menschen her. Aber vielleicht deuten wir bald das menschliche Verhalten mit Ausdrücken, deren Gehalt wir vor allem aus maschinellen Abläufen entnehmen. Das würde zu einer Selbstreduktion des Menschlichen führen.

Wer seine Ethik bloß an Handlungsfolgen ausrichtet, sieht in der maschinellen „Entscheidung“ nicht notgedrungen einen Einwand gegen autonome Waffensysteme. Schließlich könnten ja die zu erwartenden Folgen wünschenswerter sein als bei menschlichen Bedienern. Genau das behaupten die Befürworter autonomer Waffensysteme: diese sollen sogar „ethischer“ programmiert werden können als Menschen sich normalerweise verhalten (vgl. z.B. Arkin 2010; Müller/Simpson 2014; Purves et al. 2014). Wahrscheinlich würden sich z.B. viele Menschen lieber einem Operationsroboter statt einem menschlichen Chirurgen anvertrauen, wenn die statistische Erfolgsaussicht bei dem Roboter signifikant über der des Menschen liegt. Über die Frage, wie dieser Roboter „entscheidet“, würden sie sich keine weiteren Gedanken machen. 

(2) Einige Autoren heben daher auf eine andere Norm ab: Es darf nicht sein, dass Menschen einen Prozess in Gang setzen, für den sich keine (natürliche) Person mehr verantwortlich machen lässt (Sparrow 2007). In der Tat beunruhigt es die Meisten, wenn etwas vor sich geht, für das keine zuständige Person verantwortlich gemacht werden kann, falls etwas schief läuft. Verfechter autonomer Robotik könnten hier einwenden, es müsse uns doch nicht stören, dass niemand verantwortlich ist, solange die Ergebnisse, die mit der Nutzung der Robotik erzielt werden, deutlich besser sind als ohne deren Nutzung. Oder provokant gefragt: Was hat man davon, wenn man eine Person für ein schlechtes Ereignis verantwortlich machen kann, zu dem es bei Nutzung von „unverantwortlicher“ Robotik vermutlich gar nicht gekommen wäre?

Verantwortlichkeit ist eine soziale Relation: Vielfach ist sie nicht einfach ‚natürlich‘ gegeben, sondern in einer gesellschaftlichen Praxis etabliert oder durch soziale Institutionen (wie dem positiven Recht) erst erzeugt. Die Frage, ob die Programmierer, die Hersteller, Nutzer oder andere die Verantwortung für die ungewünschten und schädlichen Auswirkungen von autonomer Robotik tragen sollen, ist wichtig; vielleicht ließe sich in einem konsensuellen Prozess eine Antwort darauf finden.

(3) Auch wenn sie nicht jeden überzeugen mögen, sind mit den beiden Argumentationslinien Probleme angezeigt, die zu vertiefter Reflexion auffordern: zur Weise, wie wir Verantwortlichkeit verstehen, und zu Analogien bzw. Disanalogien im Sprechen über Mensch und Maschine. Für das praktische Urteil im angewandt-ethischen Sinne ist wahrscheinlich gar keine so vertiefte Reflexion nötig. Möglicherweise liegt der Haupteinwand, der sich gegen tödliche autonome Waffensysteme vorbringen lässt, auf der schlichten Ebene der Risikenabwägung komplexer Systeme.[3] Wir wissen heute einfach nicht, was alles mit solchen Geräten passieren kann. Welche Auswirkungen sind zu erwarten, wenn zwei autonome Waffensysteme miteinander in Kontakt kommen? Verstärken sie sich dann gegenseitig und treten eine Kaskade von Waffenanwendungen los? Natürlich können auch große Risiken wieder abgewogen werden gegenüber großen günstigen Folgen; manche halten beispielsweise die Risiken der zivilen Nutzung der Kernenergie für vertretbar angesichts der kostengünstigen Möglichkeit, damit große Mengen von Strom zu erzeugen. Dennoch spricht vieles für eine Art „Vorsichtsprinzip“ (Nida-Rümelin et al. 2012, Kap. 6), das bei sehr großen Risiken eine ethische Bremse einzieht. Risiken, die wirklich an die Substanz unserer Lebensgrundlagen gehen, sollten auch bei großen Vorteilen nicht eingegangen werden. Denn große Risiken kollektivieren in unvertretbarem Ausmaß: Den Schaden haben alle zu tragen, auch jene, die von den Vorteilen nicht profitieren oder profitiert hätten. Die Risiken der Nutzung autonomer Waffensysteme gehören aber möglicherweise genau in diese Kategorie derer von unvertretbarem Ausmaß.

Wie weiter?

In der Summe ist festzuhalten, dass der Einsatz von Kampfdrohnen und auch von zukünftigen letalen autonomen Waffensystemen aus Sicht der Theorie(n) des gerechten Krieges ethisch durchaus kontrovers diskutiert werden kann, die Kritik an letalen autonomen Waffensystemen breiter und fundamentaler ausfällt. Dies drückt sich auch in der Debatte um Kampfdrohnen und LAWS aus. Während Kampfdrohnen immer stärker zu einem grundsätzlich akzeptierten militärischen Mittel werden, bei dem von der Mehrheit der am Diskurs beteiligten nur das „wann“ und nicht das grundsätzlichere „ob“ diskutiert wird, hat sich gegenüber letalen autonomen Systemen eine breite gesellschaftliche Abwehrfront gebildet (Sauer 2016). Es ist vor diesem Hintergrund nicht überraschend, dass es keine internationalen Anstrengungen zu einem Verbot bewaffneter ferngesteuerter Drohnen gibt. Gleichwohl ist es bedauerlich, dass gerade die westlichen Vorreiter dieser Technologie auch keine Anstalten machen, sich für internationale Mindeststandards bei den Einsätzen stark zu machen. Die von Präsident Obama in den letzten Wochen seiner Amtszeit veröffentlichten Direktiven zum Einsatz von Kampfdrohnen (Obama 2016) sollten möglicherweise den Nukleus einer, wenn auch sehr breit interpretierten, internationalen Einsatznorm darstellen. Allerdings sind diese (zu) späten Anstrengungen im Zuge der deutlich undifferenzierteren Einsatzpraktiken seines Nachfolgers schnell unter die Räder gekommen (Schörnig 2017). Auch wenn es schmerzt, muss man der Realität hier ins Auge sehen: die militärische Kampfdrohne wird nicht verschwinden und die Chancen auf eine Regulierung der Einsätze oder die Eindämmung ihrer Verbreitung wurden – vermutlich – verpasst.

Positiver sieht die Entwicklung hingegen bei den letalen autonomen Waffensystemen aus. Hier fasste die fünfte Überprüfungskonferenz der UN-Waffenkonvention (Convention on Certain Conventional Weapons, CCW) im Dezember 2016 nach drei inoffiziellen Treffen 2014, 2015 und 2016 den Beschluss, ab dem Sommer 2017 eine offizielle und zeitlich nicht begrenzte Group of Governmental Experts (GGE) einzusetzen (Schörnig 2016). Ziel ist es, der CCW Vorschläge für den Umgang mit LAWS zu unterbreiten, die bis zu einem Verbot dieser Waffen reichen könnten. Ob die Vorschläge dann die Zustimmung der teilnehmenden Staaten erhalten, ist noch nicht klar. Denn obwohl noch kein Staat letale autonome Waffen besitzt und einsetzt, haben sich selbst kritische Staaten wie Deutschland bisher nicht eindeutig zu einem Verbot bekannt. Bislang wagt sich von den technologisch fortgeschrittenen Staaten keiner aus der Deckung. Entsprechend wäre eine koordinierte Positionierung mehrerer europäischer Staaten wünschenswert und sollte angestrebt werden. Viel wird allerdings von zwei Faktoren abhängen: Erstens, ob es der Expertengruppe gelingt, eine Definition autonomer Waffensysteme zu entwickeln, der alle zentralen Akteure zustimmen können. Und zweitens, wie mit der Frage der Überprüfung der Einhaltung eines möglichen Verbots umgegangen wird. Das Herzstück eines autonomen Waffensystem ist nicht die Hard-, sondern die Software, die deutlich schwieriger zu inspizieren ist (Schörnig 2016). Angesichts der Tatsache, dass sich bislang aber kein Staat mit Verve gegen ein Verbot engagiert, darf man verhalten optimistisch auf eine rüstungskontrollpolitische Beschränkung – vielleicht sogar ein Verbot – letaler autonomer Waffensysteme hoffen. 
   

BERNHARD KOCH   Jahrgang 1971, Dr. phil., stellvertretender Leiter am Institut für Theologie und Frieden, Hamburg, und Lehrbeauftragter an der Goethe-Universität Frankfurt am Main. Wichtigste aktuelle Publikation: Den Gegner schützen? Zu einer aktuellen Kontroverse in der Ethik des bewaffneten Konflikts, Hrsg. (2014), Nomos. Aktuelle Forschungsschwerpunkte sind Ethik und Gewalt, Ethik und der Einsatz autonomer Waffensysteme und rechtsethische Fragestellungen.

NIKLAS SCHÖRNIG   Jahrgang 1972, Dr. phil., Wissenschaftlicher Mitarbeiter am Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung, Frankfurt. Wichtigste aktuelle Buchveröffentlichung: The Militant Face of Democracy. Liberal Forces for Good (2013), Cambridge University Press; Hrsg. mit Anna Geis und Harald Müller. Aktuelle Themenschwerpunkte: Zukunft des Krieges, militärische Robotik, Rüstungskontrolle und australische Außen und Sicherheitspolitik.

Literatur:

Arkin, Ron 2010: The Case for Ethical Autonomy in Unmanned Systems; in: Journal of Military Ethics, Jg. 9, H. 4, S. 332-41.

Geiß, Robin, 2015: Die völkerrechtliche Dimension autonomer Waffensysteme, Studie der Friedrich-Ebert-Stiftung, http://library.fes.de/pdf-files/id/ipa/11444-20150619.pdf.

Gilli, Andrea/Gilli, Mauro 2017: European defence cooperation in the second machine age, Brief Issue 14, European Institute for Security Studies, Brussels

Human Rights Watch 2012: Losing Humanity. The Case against Killer Robots, Washington, DC

Jungholt, Thorsten/Meyer, Simone 2012: De Maizière wirbt für Einsatz bewaffneter Drohnen, in: Die Welt, 3.8.2012 (online: http://www.welt.de/politik/deutschland/article108473948/De-Maiziere-wirbt-fuer-Einsatz-bewaffneter-Drohnen.html, letzter Zugriff 3.5.2017).

Kahn, Paul W. 2002: The Paradox of Riskless Warfare; in: Philosophy & Public Policy Quarterly, Jg. 22, H. 3, S. 2-8.

Koch, Bernhard 2017a: Diskussionen zum Kombattantenstatus in asymmetrischen Konflikten. In: Ines-Jacqueline Werkner und Klaus Ebeling (Hrsg.): Handbuch Friedensethik, Wiesbaden 2017, 843-854.

Koch, Bernhard 2017b: Hybride Ethik für hybride Kriege? Reichweite und Grenzen der sogenannten „revisionistischen Theorie des gerechten Krieges“. In: Hans-Georg Ehrhart (Hrsg.): Krieg im 21. Jahrhundert. Konzepte, Akteure, Herausforderungen, Baden-Baden 2017, 88-113.

Koch, Bernhard/Schörnig, Niklas 2015: „The Dangers of Lethal Autonomous Weapon Systems“, Justitia et Pax, http://www.juspax-eu.org/en/dokumente/JPE-MEMO-1-LAWS-EN.pdf. Letzter Zugriff 19.4.2017.

McMahan, Jeff 2004: The Ethics of Killing in War; in: Ethics, Jg. 114, H. 4, S. 693-733.

McMahan, Jeff 2011: Who is liable to be killed in war? ; in: Analysis, Jg. 71, H. 3, S. 544-59.

Müller, Vincent C. /Simpson, Thomas W. 2014: Autonomous Killer Robots are Probably Good News, in J. Seibt, R. Hakli and M. NØrskov (Hrsg.): Sociable Robots and the Future of Social Relations, Amsterdam, 297-305.

Nida-Rümelin, Julian /Rath, Benjamin/Schulenburg, Johann 2012. Risikoethik, Berlin/Boston

Obama, Barack 2016: “Report on the Legal and Policy Frameworks Guiding the United States‘ Use of Military Force and Related National Security Operations”, The White House, https://assets.documentcloud.org/documents/3232594/Read-the-Obama-administration-s-memo-outlining.pdf. Letzter Zugriff: 28.4.2017

Purves, Duncan /Jenkins, Ryan /Strawser, Bradley J. 2014: Autonomous Machines, Morals Judgement, and Acting for the Right Reasons; in: Ethical Theory and Moral Practice, Jg. 18, H. 4, S. 851-72.

Sauer, Frank 2016: Stopping ‘Killer Robots’: Why Now Is the Time to Ban Autonomous Weapons Systems; in: Arms Control Today, Jg. 46, H. 8, S. 8-13.

Sayler, Kelley 2015: A World of Proliferated Drones: A Technology Primer, Washington, DC. https://s3.amazonaws.com/files.cnas.org/documents/CNAS-World-of-Drones_052115.pdf. Letzter Zugriff 28.4.2017.

Scheffler, Samuel 2013. Death and Afterlife, Oxford

Schörnig, Niklas 2016: „Rückt ein Verbot von „Killer Robots“ näher?“, HSFK, 20.12.2016, https://www.hsfk.de/publikationen/autonome-waffensysteme/. Letzter Zugriff: 2.5.2017

Schörnig, Niklas 2017: Just when you thought things would get better. From Obama’s to Trump’s drone war; in: Orient, Jg. 58, H. 2, S. 37-42.

Sparrow, Robert 2007: Killer Robots; in: Journal of Applied Philosophy, Jg. 24, H. 1, S. 62-77.

Strawser, Bradley Jay 2010: Moral Predators: The Duty to Employ Unihabited Aerial Vehicles; in: Journal of Military Ethics, Jg. 9, H. 4, S. 342-68.

Walzer, Michael 1977. Just and Unjust Wars. A Moral Argument with Historical Illustrations, New York

Walzer, Michael 2004. Arguing about War, New Haven

Anmerkungen:

1 Eine Übersicht über die hoch umstrittenen US-Drohneneinsätze in Pakistan, dem Jemen und Somalia, sowie eine breit angelegte Kritik bietet z.B. die Webseite des britischen Bureau of Investigative
Journalism, https://www.thebureauinvestigates.com/projects/drone-war. Letzter Zugriff 03.05.2017.

2 Vgl. http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf, S. 13f; letzter Zugriff 3.5.2017.

3 Dieser Aspekt ist leitend im Positionspapier der Kommission Justitia et Pax Europa: Koch and Schörnig, 2015.

Dateien

nach oben