Vollautonome Waffensysteme -

Überlegungen der Technikethik

 

Markus Reisner

 

Betrachtet man die technologischen Entwicklungen der letzten Jahrzehnte, so scheint es, dass in Zukunft auch die Entwicklung von vollautonomen unbemannten Systemen möglich ist. Die Erfindung eines selbstständig agierenden Roboters, der Traum vieler Science-Fiction-Autoren, scheint machbar. Tatsächlich ist der Sprung zur Vollautonomie jedoch zurzeit noch einer Reihe von technischen Herausforderungen unterworfen. Es ist daher davon auszugehen, dass die Entwicklung von Systemen, die in der Lage sind, rationelle Beurteilungen anzustellen, noch Jahrzehnte in Anspruch nehmen wird. Trotzdem ist bereits eine Reihe von Systemen verfügbar, die mit einem hohen Autonomie- bzw. Automationsgrad eingesetzt werden können. Sie kommen in einem Bereich zur Anwendung, wo die menschliche Reaktionszeit einen geforderten Erfolg verhindern würde. Die in den nächsten Jahren zu erwartenden Investitionen internationaler Streitkräfte in Unmanned Systems lassen berechtigterweise den Schluss zu, dass auch in die Erforschung möglicher vollautonomer Systeme zumindest „indirekt“ investiert werden wird, trotz der Bekenntnisse der daran beteiligten Staaten, diese Entwicklungen einer genauen Beobachtung zu unterziehen. Vorerst ist jedoch v.a. eine quantitative und qualitative Erweiterung bestehender Systemfamilien zu erwarten. Der Weg zur immer weitergehenden Autonomisierung erfolgt schrittweise.1)
Das Nennen des Wortes „Roboter“ führt unweigerlich dazu, dass jeder Mensch (bzw. im vorliegenden Fall der Leser dieses Textes) bei diesem Wort unweigerlich ein spezielles individuelles Bild vor Augen hat. Nicht wenige werden feststellen, dass dieses Bild einem „mechanischen Menschen“ gleicht, mit einem metallenen Kopf, Armen und Beinen. Natürlich grob geformt und ohne jene Mimik, aber doch ein wenig dem menschlichen Organismus ähnlich. Hier beginnt jedoch bereits der Fehler. Wir neigen dazu, einem Roboter menschliche Eigenschaften zuzuschreiben. Wird der Roboter zudem mit Absicht menschenähnlich gestaltet, verstärkt sich dieses innerliche Gefühl zusätzlich. Maschinen sind jedoch keine Menschen. Sie haben kein Gehirn, sondern Prozessoren, die softwarebasierte, definierte, vom Menschen vorbestimmte Rechenoperationen ausführen. Ein Computer „denkt“ nicht im menschlichen Sinne. Er kann nicht lernen und besitzt auch keine ausgeprägten kognitiven Fähigkeiten. Es ist sogar umstritten, ob ein Roboter jemals eine derartige so genannte technologische Singularität oder eben künstliche Intelligenz (KI) erreichen kann. Algorithmen sind darauf ausgerichtet, Komplexität zu reduzieren. Dazu erfolgt zuerst eine Filterung, dann eine Priorisierung und danach eine Kategorisierung. Dieser Vorgang ist grundsätzlich dem Denkprozess des Menschen nachempfunden. Der Mensch nimmt jedoch seine Umwelt bewusst wahr und lernt aus dieser Erfahrungswelt. Mit zunehmendem und v.a. individuellem Lernprozess und entlang einer zeitlichen Achse kann das menschliche Gehirn Beobachtungen einordnen und bewerten bzw. daraus logische Schlüsse ziehen. Die Software eines Computers muss hingegen über Sensoren Daten sammeln, bewerten und in Datenbanken sortieren. Der der Software zugrundeliegende Algorithmus bleibt immer gleich. Der menschliche „Quellcode“ verändert sich jedoch laufend. Das Hirn ist in der Lage, sich permanent weiterzuentwickeln und bei Bedarf auch neu zu reorganisieren. Der Grad der Autonomie eines Roboters lässt sich dann verbessern, wenn seine Software Ist- und Soll-Daten optimal abgleichen kann. Dieser Vorgang ist durch Sensorenanzahl, Speicherkapazität und Rechenleistung begrenzt.2) Hinzu kommt die Fähigkeit des Menschen, Empathie und Mitleid empfinden zu können. Wie sollte man nun aber derartige Gefühlszustände in eine Maschine programmieren?3)

Vollständige Autonomie und mögliche Folgen

Einer der ersten, der sich intensiv damit befasste, welchen Einfluss technologische Entwicklungen auf den Menschen und sein Dasein haben, war der Philosoph Martin Heidegger (1889-1976). Heidegger erregte bereits im Jahr 1926 mit seinem ersten Werk „Sein und Zeit“ die Aufmerksamkeit der philosophischen Eliten seiner Zeit. Sein erstes Werk war in philosophischen Kreisen eine Sensation, da es einen völlig neuen Blick auf den Menschen zuließ. Er beschrieb darin den Unterschied zwischen „Sein“ und „Seiendem“. Dies wurde von ihm als „ontologische Differenz“ bezeichnet. Der Mensch nähert sich dem Unterschied zwischen dem Sein und dem Seienden im Sinne eines hermeneutischen Zirkels an.4) Zentral ist die Frage nach dem Sein des Menschen. Dabei ist zuerst das menschliche Dasein („In-der-Welt-Sein“) zu betrachten. Das Dasein ist jedoch ein zeitliches und endet mit dem Tod. Basierend auf seiner von ihm entwickelten Ontologie begann er, sich mit den Arbeiten bedeutender Philosophen auseinanderzusetzen. Seine Ontologie setzte er dabei bewusst in Opposition zur herkömmlichen Metaphysik. Diese sei seiner Meinung nach bis jetzt immer einseitig gedacht worden. Nicht zuletzt dieser Umstand war die Ursache dafür, dass das heutige moderne Technikverständnis des Menschen fehlgeleitet wurde.5)
Im Dezember 1949 hielt Heidegger in Bremen vier Vorträge, die er „Das Ding“, „Das Gestell“, „Die Gefahr“ und „Die Kehre“ nannte. Den Inhalt dieser Vorträge erweiterte er in den nächsten Jahren, und sie wurden zentraler Bestandteil seiner Ideen und Kritiken zur Technik. Im Jahr 1953 trug er unter dem Titel „Die Frage nach der Technik“ an der bayerischen Akademie der schönen Künste vor. Dieser Vortrag erhielt breite Anerkennung und Zustimmung und führte in weiterer Folge zur Veröffentlichung seines Buches „Die Technik und die Kehre“.6) Heidegger thematisiert darin die Gefahren, die dem Menschen vom Wesen der Technik drohen, und mahnt daher die Notwendigkeit ein, eine „Kehre“ einzuleiten. Philosophie bedeutet für Heidegger, immerwährend Fragen zu stellen und nicht in einem erstarrten Denken zu verharren. Für ihn ist „Fragen die Frömmigkeit des Denkens.“7) Ausgangspunkt dafür ist die Frage nach dem Sein des Seienden. Diese Frage muss vom Dasein des Menschen hergestellt werden. Das stete Fragen ergründet Wesen, Bestimmung und Gefahr. So auch im Falle der Technik. Diese hat ein zweideutiges Wesen. Die Technik wirkt nicht nur als Werkzeug des Menschen, sie verändert auch sein Wesen. Die moderne Technik bringt hervor, sie „entbirgt“. Die in der Natur verborgene Energie wird erschlossen und zugänglich gemacht. Dabei formt der Mensch die Landschaft. Er degradiert sie jedoch zu einem reinen Nutzinstrument. Er beutet sie aus. Heidegger stellt dazu fest:
„… was im Zeichen der Ausbeutung der Natur stattfindet, ist nicht mehr als ein Hervorbringen, d.h. als ein Entbergen zu sehen, das immer noch auf ein Verbergen verweist, sondern als ein Herausfordern.“ 8)
Die Technik fordert den Menschen heraus, sie „stellt“ ihn. Diesen Umstand bezeichnet Heidegger als „Gestell“, und darin liegt die Gefahr der Technik. Diese erscheint als zuverlässiges, unendlich erweiterbares und perfektionierbares Mittel, mit dem der Mensch seine Umwelt beherrschen kann. Dabei wird er aber zunehmend selbst von der Technik beherrscht. Nur die menschliche Besinnung kann dazu führen, eine „Kehre“ einzuleiten. Heidegger schlägt somit vor, eine Änderung der Blickrichtung auf die Technik durchzuführen. Der Mensch darf sich nicht in eine Abhängigkeit von der Technik begeben. Er soll nicht der Gedankenlosigkeit und Abhängigkeit verfallen, sondern immer wieder innehalten und seinen Verstand gebrauchen.9) Die „Herrschaft des „Gestells“ muss vermieden werden. Diese Gefahr beschreibt er wie folgt:
„Gemäß dieser Verstellung der Gefahr durch das Bestellen des Gestells sieht es immer noch und immer wieder so aus, als sei die Technik ein Mittel in der Hand des Menschen. In Wahrheit ist jetzt das Wesen des Menschen dahin bestellt, dem Wesen der Technik an die Hand zu gehen.“ 10)
Die Forschung (im Auftrag von Militär und Wirtschaft) strebt stetig nach der Weiterentwicklung von unbemannten Systemen und stoppt diese Einwicklungen auch dann nicht, wenn sich erahnen lässt, dass möglicherweise die Konsequenzen der gemachten Erfindungen (z.B. der Übergang zur Vollautonomie) noch unklar sind. Heideggers Argumentation folgend birgt dies die Gefahr der Einseitigkeit und Abhängigkeit. Der Mensch darf nicht entmachtet und zum Erfüllungsgehilfen seiner Technik degradiert werden. D.h., ein unkritischer Umgang mit technischen Entwicklungen und Fähigkeiten wie z.B. möglichen vollautonomen unbemannten Waffensystemen ist daher abzulehnen. Der Mensch darf sich nicht unbewusst von der Maschine und ihren Fähigkeiten verdrängen lassen.
Ein Schüler Heideggers war Günther Anders (1902-1992).11) Im Jahr 1956 erschien der erste Band seines Hauptwerks „Die Antiquiertheit des Menschen“. Darin beschreibt er die Folgen der Industriellen Revolution der Menschheit und reflektiert über Nutzen und Gefahr der modernen Technik. Hier beginnt auch seine Technikkritik. Basierend auf seinen eigenen Erlebnissen als Fließbandarbeiter beschreibt er die Auswirkungen, welche die technische Moderne auf das menschliche Wesen hat. Er vertritt die Ansicht, dass der unvollkommene Mensch und die von ihm geschaffenen Maschinen in ihrer Leistungsfähigkeit immer weiter auseinanderdriften. Anders nennt diesen Umstand das so genannte „prometheische Gefälle“. Er schreibt dazu:
„Durch unsere unbeschränkte prometheische Freiheit immer Neues zu zeitigen … haben wir uns als zeitliche Wesen derart in Unordnung gebracht, dass wir nur als Nachzügler dessen, was wir selbst projektiert und produziert hatten, mit dem schlechten Gewissen der Antiquiertheit unseren Weg langsam fortzusetzen oder gar wie verstörte Saurier zwischen unseren Geräten herumzulungern.“ 12)
Der Mensch leidet an einer eingeschränkten Vorstellungskraft, die es ihm unmöglich macht zu begreifen, was er eigentlich in die Welt gesetzt hat. D.h., er ist zwar in der Lage, ein komplexes technisches Gerät zu erschaffen, versteht aber nicht, wozu seine Kreation eigentlich in der Lage ist. Er kann nicht erfassen, welche Konsequenzen sein Schaffen möglicherweise hat. Im Gegenteil, der Mensch ist vom Wunsch beseelt, die Perfektion seiner von ihm kreierten Maschinen zu erreichen. Nach Anders leidet der Mensch dabei unter der „prometheischen Scham“. Sich seiner eigenen Unvollkommenheit bewusst, möchte er immer bessere Gerätschaften erzeugen. Die dabei von ihm geschaffenen Maschinen bleiben so durch ihre stete Entwicklung nicht mehr bloß Werkzeuge, sie entwickeln eine (vom Menschen verursachte) Eigendynamik. Das Dasein des Menschen hingegen erscheint zunehmend „antiquiert“. Der Mensch empfindet sich zunehmend als Mangelwesen. Er wird nur mehr zur Wartung der von ihm geschaffenen Geräte eingesetzt. Deren Zweck und Bestimmung kennt er nur mehr eingeschränkt. Sie sind entweder zu komplex oder zu ausdruckslos, um von ihm verstanden zu werden. Er unterwirft sich ihnen völlig und mit Hingabe. Der Mensch wird durch diese Umstände zum „Objekthirten seiner Konstruktionen“ degradiert.13) Er lebt in der Technokratie. Diese beschreibt Anders wie folgt:
„Unter „Technokratie“ verstehe ich die Tatsache, dass die Welt, in der wir heute leben und die über uns befindet, eine technische ist, - was so weit geht, dass wir nicht mehr sagen dürfen, in unserer geschichtlichen Situation gebe es u.a. auch Technik, vielmehr sagen müssen: In dem „Technik“ genannten Weltzustand spielt sich nun die Geschichte ab. Bzw. die Technik ist nun zum Subjekt der Geschichte geworden, mit dem wir nur noch „mitgeschichtlich“ sind.“ 14)
Einen nachhaltigen Eindruck auf Anders machten die Abwürfe der Atombomben auf Hiroshima und Nagasaki im August 1945. Die Erfindung der Atombombe war für Anders ein Beispiel für eine Konstruktion, deren Erschaffung und katastrophale Folgen ihres Einsatzes der Mensch zuvor nicht verstanden hatte. Der Mensch hatte nicht begriffen, dass er durch die Erfindung dieser Waffe in der Lage war, sich selbst auszulöschen. In seinem Buch „Die Zerstörung unserer Zukunft“ stellt er fest:
„Meine These lautet also, dass die Differenz zwischen den Phasen ,Machen´ und ,Tun´ aufgehoben ist. Heute ist diese „Aufhebung“ vollends deutlich geworden, denn in unserer, der ,push button´-Epoche, würde ja nun auch der letzte Effekt durch einen Knopfdruck hergestellt werden. Und dass dieser Knopfdruck irgendwo im Hinterland, also fern der Aktionsbühne oder des Kriegsschauplatzes, vor sich gehen würde, würde sich dieser (Knopfdruck) von dem in normalen Herstellungsprozessen üblichen ,button pushing´ in nichts unterscheiden, würde er mit ,Handeln´ ebenso wenig zu tun haben wie andere maschinelle Bedienungsgriffe. Im Prinzip, in dem, was die Tätigkeitsart betrifft, gibt es zwischen der Durchstanzung eines Eisenblechs und der Verwüstung einer auf einem anderen Kontinent gelegenen Stadt keinen Unterschied mehr.“ 15)
Durch die Schaffung von komplexen Waffen, die aus der Ferne gesteuert werden können, verliert der Mensch jeden Bezug zu deren Einsatz. Weder kann er ermessen, welche Folgen ihr Einsatz hat, noch hat er eine Alternative. Alle seine Optionen sind auf den Einsatz seiner perfekten Kreation ausgerichtet. Er hat sich nach seiner Maschine zu richten. Er ist ihr Diener und Sklave geworden.16) Betrachtet man diese Überlegungen, so liegen die Parallelen zur heutigen Situation auf der Hand.
Anders verfällt in seinen Schriften nicht der Resignation. Ähnlich wie Heidegger sucht er nach einer Möglichkeit der Alternative, nach einer „Kehre“. Nach Anders muss der Mensch bereit sein, die Konsequenzen seines Handelns zeitlich zu beurteilen, denn: „… alles Kommende ist immer schon angekommen, nämlich bei uns, da es von uns abhängt“17) D.h., der Mensch muss in seinem Schaffensprozess vorausschauend denken und Forschung und Entwicklung nicht nach dem Jetzt ausrichten, sondern nach dem Fortbestand der nachfolgenden Generationen. Nach der Auffassung von Anders wird der Mensch aber durch seine laufenden Entwicklungen zum Getriebenen seiner Erfindungen, die er nur mehr verwaltet, aber bei ihrem Einsatz (z.B. Atombombe) kaum noch kontrollieren kann, denn:
„… der eventuelle Atomkrieg wird der hassloseste Krieg sein, der je geführt worden ist: Der Schlagende wird seinen Feind deshalb nicht hassen, weil er ihn nicht sehen wird; der Getroffene den Schlagenden deshalb nicht hassen, weil er ihn nicht sehen wird; der Getroffene den Schlagenden deshalb nicht, weil kein Schläger auffindbar sein wird. Es gibt nichts Makabreres als diese (mit positiver Menschenliebe überhaupt nicht verwandte) Friedlichkeit.“ 18)
Sich völlig gegenüber einem vollautonomen System in die Abhängigkeit zu begeben, bedeutet, eine Reihe von Herausforderungen in Kauf zu nehmen bzw. zu akzeptieren. Der Mensch begibt sich in diesem Fall unaufhaltsam in eine schleichende Unmündigkeit.19) Er ist zunehmend, wie Heidegger und Anders treffend darstellen, auf die Assistenz seiner technischen „Hilfsmittel“ angewiesen. Das Wesen des Krieges würde sich beim Einsatz von vollautonomen Maschinen völlig verändern. Die Hemmschwelle zum Einsatz würde zwangsläufig sinken. Der Mensch meint, einen sauberen Krieg führen zu können: Maschinen gegen Maschinen, Maschinen gegen Menschen. Was jedoch, wenn diese autonomen Maschinen versagen? Ist der Mensch noch dazu in der Lage, eine vernünftige Entscheidung zu treffen und einzugreifen?
Das Versagen eines vollautonomen Systems kann unterschiedliche Ursachen haben. Es kann als Ursache eines einfachen technischen Fehlers auftreten, aber auch das Ergebnis eines komplexen Angriffes aus dem Cyberraum sein. Wie reagiert nun der Mensch, wenn er vor schwarzen Bildschirmen sitzt oder der von ihm eigentlich aus der Ferne überwachte Roboter plötzlich völlig autark agiert? Ohne Möglichkeit, ihn zu stoppen? Zusätzlich besteht die Gefahr, sich nur mehr auf die Ergebnisse von computergenerierten Simulationen zu verlassen. Wenn derartige Simulationen zur Grundlage politischer und militärischer Entscheidungsfindung werden, besteht die Gefahr, dass jede Intuition, die bisher ein ganz wesentlicher Bestandteil einer derartigen Entscheidungsfindung war, verloren geht. In prekären Situationen darf sich der Mensch nicht in eine derartige „maschinelle“ Abhängigkeit begeben.
Aus der Zeit des Kalten Krieges sind immer wieder Situationen überliefert, in denen technische Frühwarnsysteme einen vermeintlichen Angriff vermeldeten. Nur der Besonnenheit einiger beherzter Offiziere in den militärischen Entscheidungsketten ist es zu verdanken, dass die Welt nicht in einem atomaren Vernichtungskrieg versank. Hier waren es immer wieder sehr enge Zeitspannen, in denen eine Entscheidung getroffen werden musste. Ein Beispiel dafür ist der Fall eines russischen Offiziers. Oberstleutnant Stanislaw Petrow erhielt am 26. September 1983 als befehlshabender Offizier von seinem Computersystem in der Kommandozentrale des sowjetischen Kosmos-1382-Satellitenüberwachungssys­tems die Meldung, dass mehrere amerikanische Interkontinentalraketen gestartet worden seien und sich auf dem Flug in Richtung Sowjetunion befänden. Trotz der Warnung des automatischen Frühwarnsystems entschied Petrow aufgrund seiner persönlichen Beurteilung, die Satellitendaten als falsch einzustufen und nicht weiterzuleiten. Somit verhinderte er die Auslösung eines umfangreichen sowjetischen atomaren Gegenschlages. Tatsächlich stellte sich die Meldung als Fehlalarm heraus. Zwar wäre der Befehl zur Auslösung eines Gegenschlages durch die politische Führung erfolgt, doch Petrow hatte durch sein richtiges Verhalten eine mögliche Kettenreaktion an fehlerhaften Entscheidungen verhindert. Er konnte dadurch den möglichen Ausbruch eines dritten Weltkrieges vermeiden.20)
Dieses Beispiel zeigt anschaulich: Gerade die moderne Kriegführung darf durch die mögliche Entwicklung von vollautonomen Systemen keine Eigendynamik entwickeln. Anders weist zu Recht auf die Gefahr hin, dass der Mensch zum „Herrn der Apokalypse“ wird. Und zwar durch die Art, wie er gegenüber den durch ihn programmierten Maschinen seiner Lebenswelt in eine Abhängigkeit gerät. Gerade in demokratischen Systemen sind politische Entscheidungen das Ergebnis eines Konsensprozesses. Dies setzt einen vernünftigen Diskurs zu einer Fragestellung voraus und nicht das bloße Abwägen von Analyseergebnissen sowie das Errechnen von günstigen oder ungünstigen Wahrscheinlichkeiten. Durch den Einsatz von autonomen Systemen könnte es leicht passieren, dass die politische Kontrolle über militärische Maßnahmen verloren geht, unabhängig davon, ob es sich dabei um ein militärisches Frühwarnsystem handelt oder eine vollautonome Drohne, die über gegnerischem Gebiet eingesetzt wird.
Eine wesentliche Folgerung ist daher, dass sich der Mensch der Konsequenzen einer derartigen Entwicklung bewusst sein muss. Es besteht eine zwingende ethisch geleitete Verantwortung des Menschen gegenüber seinen Artgenossen. Diese Verantwortung benötigt auch entsprechende Kontrollmechanismen, und sie setzt menschliche Vernunft und Erkenntnis voraus. Der niederländische Philosoph Baruch de Spinoza beschrieb die so genannte „intuitive Erkenntnis“ als eine Grundvoraussetzung jeden menschlichen Handelns und jeder Vernunft.21) Erkenntnis und Vernunft sind somit Grundvoraussetzung für jedes menschliche Handeln. Nur der vernünftige Mensch darf über Leben und Tod entscheiden. Eine Maschine kann niemals Vernunft entwickeln, daher ist einerseits die Entwicklung von unkontrollierten vollautonomen Systemen abzulehnen, aber andererseits der vernünftige Einsatz von teilautonomen Systemen zum Schutz des Menschen (z.B. durch die Verringerung eines emotionsgeleiteten, aus einer Gefechtssituation resultierenden Handelns beim Einsatz von Drohnen) zu begrüßen.

Die Frage nach der Grenze des Fortschritts

Ein früher Schüler Heideggers (und späterer Bekannter von Anders) war Herbert Marcuse (1898-1979).22) Als dessen Hauptwerk kann seine Schrift „Der eindimensionale Mensch - Studien zur Ideologie der fortgeschrittenen Industriegesellschaft.“ bezeichnet werden.23) Es zählt neben anderen Werken zu jenen Schriften, die am wesentlichsten die Studentenbewegung der 1960er-Jahre beeinflusst haben. In dieser Zeit setzte sich Marcuse auch kritisch mit dem Sowjet-Marxismus auseinander. Im folgenden Text soll nun aber nicht auf die Rolle Marcuses im Rahmen des Neomarxismus eingegangen werden, sondern der Autor möchte auf einige Überlegungen Marcuses zur modernen Technik hinweisen, die als solches betrachtet durchaus aufschlussreich sind. Marcuse beklagt in seinem Werk „Der eindimensionale Mensch“ die seiner Meinung nach moderne „eindimensionale Gesellschaft“. Freiheiten und Rechte werden in modernen (kapitalistischen wie sozialistischen) Industriegesellschaften zugunsten einer ökonomisch-technischen Gleichschaltung aufgegeben. Dazu stellt er fest:
„Politische Macht setzt sich heute durch vermittels ihrer Gewalt über den maschinellen Prozess und die technische Organisation des Apparats. Die Regierungen fortgeschrittener und fortschreitender Industriegesellschaften können sich nur dann behaupten, wenn es ihnen gelingt, die der industriellen Zivilisation verfügbare technische, wissenschaftliche und mechanische Produktivität zu mobilisieren, zu organisieren und auszubeuten.“ 24)
Was Marcuse damit meint, ist, dass Politik, Wirtschaft und Medien gemeinsam an einem Strang ziehen, um das einzelne Individuum zufriedenzustellen und zu „unterwerfen“. Selbst die Wissenschaft dient nur mehr zur Befriedigung eines v.a. kapitalistisch orientierten Produktionsmaximierungsprozesses. Die Technik wird zum Werkzeug degradiert, mithilfe dessen die Herrschaft über die Natur und den Menschen ausgeübt werden kann. In einer Arbeit über den berühmten Soziologen Max Weber führt Marcuse dazu aus:
„Der Begriff der technischen Vernunft ist vielleicht selbst Ideologie. Nicht erst ihre Verwendung, sondern schon die Technik ist Herrschaft (über die Natur und den Menschen), methodische, wissenschaftliche, berechnete und berechnende Herrschaft. Bestimmte Zwecke und Interessen der Herrschaft sind nicht erst ‚nachträglich‘ und von außen der Technik oktroyiert - sie gehen schon in die Konstruktion des technischen Apparats selbst ein.“ 25)
Marcuse beschrieb somit eine so genannte „technische Utopie“ des Menschen. Durch die Manipulation des menschlichen Geistes mittels der Technik entsteht ein eindimensionales Denken in einer unfreien Welt. Der Mensch sucht ruhelos die eigene Vollkommenheit in der Technik und in ihrer scheinbaren „unendlichen“ Leistungsfähigkeit. An dieser Stelle wird klar, dass die von Marcuse beschriebene Beobachtung auch auf die Entwicklung von unbemannten vollautonomen Systemen zutrifft. Der Mensch versucht als Sklave seiner erfolgsorientierten Forschung und Entwicklung, scheinbar perfekte technische Systeme zu entwickeln. Im vorliegenden Fall ist der Mensch durch Politik, Militär und Rüstungsindustrie repräsentiert. Immer neue Entwicklungen scheinen es möglich zu machen, ein perfektes Waffensystem zu schaffen. Die Grenze des Fortschritts muss jedoch dort gezogen werden, wo der Mensch die Entscheidung über Leben und Tod abgibt. Und diese Gefahr besteht bei der Entwicklung von vollautonomen Waffensystemen, die, ausgestattet mit einer künstlichen Intelligenz, selbstständig derartige Entscheidungen treffen können. Marcuse weist auf diesen Umstand hin, wenn er schreibt:
„Die Einbildungskraft dankt vor dieser Wirklichkeit ab, welche die Einbildungskraft einholt und überholt. Auschwitz lebt immer noch fort, nicht in der Erinnerung, wohl aber in den vielfältigen Leistungen des Menschen - den Raumflügen, den Raketen und raketengetriebenen Geschossen, dem ,labyrinthischen Erdgeschoss unter der Imbisshalle´, den hübschen elektronischen Fabriken, sauber, hygienisch und mit Blumenbeeten, dem Giftgas, das den Menschen in Wirklichkeit gar nicht schadet, dem Geheimnis, in das wir alle eingeweiht sind.“ 26)
Zur Untermauerung und zeitlosen Gültigkeit dieser Aussage Marcuses sei Herfried Münkler zitiert. Er beschreibt die derzeit laufende Kriegführung der USA und ihrer Verbündeten, die v.a. (oder ausschließlich?) nur durch die Abstützung auf weltweite Drohneneinsätze (sowie Geheimdienste und Spezialeinsatzkräfte) möglich ist. Diese Kriegführung schafft faktische Ergebnisse, ohne die Langzeitfolgen dieser möglichen Pyrrhussiege in Betracht zu ziehen. Hochtechnologische Waffentechnik gaukelt Politik und Militär Erfolge vor, die diese gerne annehmen und sich damit trösten, endlich die richtige Strategie im Kampf gegen den Terror gefunden zu haben. Münkler stellt passend zu den Aussagen Marcuses fest:
„Geheimdienstinformationen und Aufklärung am Boden werden mit punktuellen Drohnenangriffen kombiniert. Die USA gewinnen so eine im Prinzip globale Handlungsmöglichkeit. Sie können überall zuschlagen. Verlagert sich der IS von Syrien nach Libyen oder nach Jemen, so sind die USA schnell da. Drohnen sind da ideale Waffen. Die USA als imperialer Akteur fördern damit aber auch - genau wie die Gegenseite - einen Zustand zwischen Krieg und Frieden. … Es geht bei der Drohne nur um Eindämmung. Beim nation building hilft sie rein gar nichts. Die Drohne ist eine Waffe, die den Gegner so unter Stress setzt, dass er mit der physischen Selbsterhaltung beschäftigt ist und seine strategische Angriffsfähigkeit verliert. Es ist eine taktisch offensive, aber strategisch defensive Waffe.“ 27)
Beim Einsatz seiner von ihm geschaffenen scheinbar perfekten Waffensysteme entsteht somit für den Menschen, ganz im Sinne von Marcuses Überlegungen, der Eindruck, ein effektives Werkzeug im Kampf gegen den globalen Terrorismus in Händen zu halten. Dieses Werkzeug wird laufend verbessert und autonomer gemacht. In Wirklichkeit dient eine derartige Kriegführung jedoch nur der Eindämmung eines unsichtbaren Gegners, sie fördert die Beruhigung der eigenen Gesellschaften und sie verschafft dem militärisch-industriellen Komplex einen steten Strom an Einnahmen. Sie dient aber in keinem Fall der eigentlichen notwendigen Entwicklung der betroffenen Regionen und ihrer Einwohner. Der Mensch lebt in einer Utopie, wenn er glaubt, durch eine derartige Handlungsweise eine Veränderung zum Guten herbeiführen zu können.

Die Verantwortung des Menschen für sein Schaffen

Die Philosophen Heidegger, Anders und Marcuse betrachten Technik immer als Wechselwirkung zwischen dem, was der Mensch erdenkt, und dem, was er schließlich erschafft. Die Technik ermöglicht es dem Menschen, das Erdachte in die Welt zu stellen und es dort wirken zu lassen. Der Mensch trägt dabei jedoch für seine Kreationen die Verantwortung. Er kann sich dieser nicht entziehen. Er kann also nicht etwas in die Welt stellen und sich danach von dem von ihm Geschaffenen distanzieren. D.h. folglich, dass, egal welchen Grad der Autonomie ein Aufklärungs- und Waffensystem zu Lande, im Wasser, in der Luft oder sonstwo zukünftig erreichen wird, es muss sich immer die Frage nach der menschlichen Verantwortung beim Einsatz derartiger Entwicklungen stellen. Eine Völkerrechtsverletzung kann durch das falsche Handeln des Menschen „in“ oder „on the loop“ verursacht werden. Bei einem möglichen vollautonomen System (KI, „off the loop“) könnte dieses hingegen entweder von vornherein völkerrechtswidrig programmiert worden, oder ein technischer Defekt der Auslöser eines fehlgeleiteten Handelns sein.28)
Bei teilautonomen Systemen scheint die Verantwortlichkeit bzw. die Zuordnung der von diesen Systemen durchgeführten Einsätze zu einer menschlichen Befehlskette klar gegeben zu sein. Zudem haftet der Staat, dem das teilautonome System zugeordnet werden kann, nach den Grundsätzen der Staatenhaftung. Doch wie stellt sich dies im Detail mit der individuellen Verantwortung dar, bzw. wie ist die Situation bei einem vollautonomen System zu beurteilen? Die notwendigen ethischen Überlegungen sind hier eng mit dem Völkerrecht verwoben. Bereits aus der Diktion des Völkerrechts besteht die Forderung nach individueller strafrechtlicher und zivilrechtlicher Verantwortung sowie nach klar definierter Staatenverantwortlichkeit. Entscheidend für die Zuordnung von Verantwortung ist v.a. der Moment der Angriffsentscheidung. Wer oder was trifft zu welchem Zeitpunkt die Entscheidung für die Durchführung eines Angriffes? Mensch oder Maschine? Im letzteren Fall besteht die Herausforderung in der Zurechnung (Kann eine Maschine überhaupt verantwortlich sein?) und in der Beschreibung des subjektiven Tatbestandes (Motive und Absichten des Täters bzw. der Maschine).29) Die Verantwortlichkeit stellt sich grundsätzlich in zwei Formen dar:
A. Völkerrechtliche Staatenverantwortung beim Einsatz von autonomen Systemen
Aus der Sicht des Völkerrechts besteht die klare Verantwortung der Staaten für Taten, die durch ihre Autorisierung ausgelöst wurden. Artikel 4 der International Law Commission (ILC) regelt diese Verantwortlichkeit.30) Diese Staatenverantwortung inkludiert die Handlungen von Angehörigen seiner Streitkräfte, Geheimdienste wie auch durch staatliche Autoritäten beauftragte private Dienstleister (z.B. Private Military Companies, PMCs).31) Drittstaaten, die völkerrechtlich illegitime Maßnahmen eines Staates gegen einen anderen Staat unterstützen, sind ebenfalls in die Pflicht zu nehmen.32) Mit der zunehmenden Komplexität von teil- bzw. vollautonomen Systemen steigt das Risiko ihrer Fehleranfälligkeit, auch wenn Herstellerfirmen in Zukunft das Gegenteil propagieren werden. Es ist absolut legitim zu behaupten, dass eine hohe Wahrscheinlichkeit besteht, dass die programmierten Algorithmen eines vollautonomen Waffensystems außer Kontrolle geraten können. Der bekannte „Systemabsturz“ passiert nicht nur am Heim-PC, sondern gerade eben auch bei komplexen Softwaresystemen. Die moderne Technik sieht dafür zwar spezielle Absicherungsmechanismen vor, doch auch diese können versagen. Und hier stellt sich ebenfalls die Frage: Wer trägt nun die Verantwortung, wenn ein vollautonomes Waffensystem in einem Einsatzraum aufgrund eines Softwarefehlers beginnt, tödliche Handlungen zu setzen?33)
Es wäre für die verantwortliche Konfliktpartei ein Leichtes, mit „höherer Gewalt“ zu argumentieren und jede Verantwortung von sich zu weisen. Dies scheint jedoch zu kurz gegriffen. Gerade bei einem Roboter scheint es auf der Hand zu liegen, dass in letzter Konsequenz vorrangig der menschliche Operateur des Systems in die Verantwortung zu nehmen ist. Auch wenn dieser schlussendlich möglicherweise nur den Befehl für den Einsatz des vollautonomen Waffensystems gegeben hat. Der Operateur bzw. Befehlsgeber lässt sich auch einem Völkerrechtssubjekt zuordnen, und die Verantwortung des Staates für das von ihm eingesetzte Waffensystem bleibt somit aufrecht.34) Besteht ein derartiges Versagen in der Einhaltung des Völkerrechts, so müssen bei Bedarf entsprechende Gremien tätig werden. Beim möglichen zukünftigen Einsatz von vollautonomen Systemen könnten dabei unterschiedliche Institutionen zum Einsatz kommen. Als Beispiele seien hier der International Criminal Court (ICC) bzw. andererseits der International Court of Justice (ICJ) genannt. Der ICC kann die individuelle Verantwortung (z.B. eines militärischen Kommandanten) für den Einsatz eines unbemannten vollautonomen Waffensystems untersuchen, während der ICJ jene Fälle behandelt, die einen umstrittenen Einsatz von vollautonomen Waffensystemen zwischen den Staaten untersucht. In jedem Fall ist folglich festzustellen, dass die Verantwortung der Staaten auch beim Einsatz von vollautonomen Waffensystemen gegeben sein muss.35) Ein autonomes Waffensystem kann keine Rechtspersönlichkeit per se darstellen und kann auch nicht haftbar gemacht werden. Somit bleibt der hinter dem Einsatz stehende Staat in der Verantwortung.36) Sehr wohl könnte jedoch zusätzlich die Unterscheidung zwischen Vorsätzlichkeit und Fahrlässigkeit eines Einsatzes diskutiert werden. Womit dieselben Herausforderungen bestehen wie bei der individuellen strafrechtlichen Verantwortung. Robin Geiss stellt in seinen Untersuchungen dazu fest:
„Haftbarkeit für Verstöße gegen die Regeln des Humanitären Völkerrechts ist zwar im Normalfall an die Bedingung gebunden, dass den konkret handelnden Kombattanten die fragliche Handlung vorgeworfen werden kann. Der Kommentar des Internationalen Komitees vom Roten Kreuz zum ersten Zusatzprotokoll aber stellt ausdrücklich klar, dass vorbehaltlich einer entsprechenden Regelung auch eine verschuldensunabhängige Gefährdungshaftung in Betracht kommen kann, wenn durch eine gefährliche, dem Staat zurechenbare Handlung ein Schaden entstanden ist.“ 37)
Diese strikte Gefährdungshaftung sei, so führt Geiss weiter aus, ein gangbarer Lösungsansatz für die Verantwortlichkeit von Staaten für die Handlungen autonomer Waffensysteme, denn:
„Der Einsatz von Robotern, deren Entscheidungen und Vorgehensweise nicht der unmittelbaren und vollständigen Kontrolle von Menschen unterliegen, ist inhärent risikobehaftet.“ 38)
B. Individuelle strafrechtliche und zivilrechtliche Verantwortung beim Einsatz von autonomen Systemen
Das Völkerstrafrecht steht zur Verfügung, um die Strafbarkeit von Individualpersonen für mögliche strafrechtliche Handlungen gewährleisten zu können.39) Dazu sind ein Zurechnungssubjekt (z.B. militärischer Kommandant oder Programmierer), eine zurechenbare Handlung (z.B. Erteilen eines Befehls für den Einsatz, die Aktivierung des Systems oder mangelnde Überwachung) und ein strafrechtlich relevantes Ergebnis (z.B. Tötung von geschützten Personen) erforderlich.40)
Wenn durch den Einsatz eines vollautonomen Waffensystems eine Völkerrechtsverletzung begangen wird, so ergeben sich in Hinsicht auf das Zurechnungssubjekt zwei Ansatzpunkte. Einerseits kann gemäß Befehlskette der unmittelbare militärische Kommandant zur Verantwortung gezogen werden. Der Artikel 28 des International Criminal Court (ICC) regelt diese völkerstrafrechtliche Verantwortung.41) Setzt der verantwortliche Kommandant ein vollautonomes Waffensystem ein, obwohl er weiß, dass seine Fähigkeiten zur Einhaltung z.B. des Unterscheidungsgrundsatzes nur mangelhaft ausgeprägt sind und nimmt er damit bewusst die Tötung von Unschuldigen in Kauf, so macht er sich eines Verbrechens schuldig. Andererseits könnte man dies auch für den Hersteller (bzw. die Herstellerfirma) des vollautonomen Systems (inkl. des Programmier- und Herstellungspersonals) geltend machen. Eine Herstellerfirma bzw. deren Programmierer, die ein autonomes Waffensystem vorsätzlich so programmieren, dass es z.B. keinerlei Rücksicht auf die Vorgaben des (z.B.) Unterscheidungsgrundsatzes legt, wären ebenfalls zur Rechenschaft zu ziehen.42)
Hinsichtlich der zurechenbaren Handlung besteht die Problematik darin, dass der Charakter eines vollautonomen Systems impliziert, dass „es“ mittels KI selbstständig, also autonom handelt. Somit ist praktisch nicht vorhersehbar, wie ein derartiges System tatsächlich handeln wird. Schwere Völkerrechtsverletzungen autonomer Systeme könnten sein: Verstöße gegen die Genfer Konventionen, vorsätzliche Angriffe gegen geschützte Personen oder das Durchführen unverhältnismäßiger Angriffe.43) Der militärische Kommandant muss davon ausgehen, dass das eingesetzte System gemäß den Angaben der Herstellerfirma einwandfrei arbeitet. Seine Vorgesetztenverantwortlichkeit scheitert an dem Umstand, dass bei einer Maschine ein Fehl des mens rea (Wissen und Wollen) vorliegt. Eine Maschine verfügt nicht über ein Bewusstsein im menschlichen Sinne.44)
Die Herstellerfirma und somit deren Programmierer gehen wiederum davon aus, dass sie alle erdenklichen Situationen bei der Programmierung berücksichtigt haben. Diese Logik endet jedoch dann, wenn das System über einen lernfähigen Algorithmus verfügt. Durch diesen Umstand ist in keiner Weise vorauszusehen, wie ein vollautonomes System tatsächlich in einer bestimmten Situation reagieren wird. Hier scheint es schwierig, die Verantwortung weiter bei militärischen Kommandanten, Herstellerfirmen oder Programmierern zu suchen. Folglich nimmt die menschliche Verantwortung dort ab, wo die Autonomie des Systems zunimmt. Bei der zivilrechtlichen Verantwortung ist zusätzlich die ausdrückliche Haftung des Herstellers für sein Produkt gemeint. Problematisch ist dabei jedoch, dass bis jetzt bei der Entwicklung von vollautonomen Systemen bzw. Robotern in keiner Weise etablierte Standards eingeführt wurden. Jede Forschungseinrichtung kann völlig frei von Reglements an der Entwicklung von KI arbeiten, praktisch nur begrenzt von der Genialität seines vorhandenen Entwicklungspersonals und der Höhe seines Forschungsetats.45)
Wer trägt also die Verantwortung, wenn die vom Menschen für unfehlbar gehaltene Technik doch einen Fehler begeht? Oder im Sinne Goethes gedacht: Wer ist schuldig? Der Besen, der sich nicht mehr kontrollieren lässt, oder doch der Zauberlehrling, der ihn in eigener Selbstüberschätzung entfesselt hat? Aus diesen Darstellungen muss gefolgert werden, dass es nicht im Sinne der Menschheit sein kann, dass zukünftig die mögliche Situation eintritt, in der der Mensch nicht mehr in der Lage ist, die Entscheidungen eines vollautonomen Systems vorauszubestimmen bzw. bei dessen Fehlverhalten eine klare Verantwortung für ein begangenes Kriegsverbrechen herzuleiten. Es ist ethische Pflicht des Menschen, für sein Schaffen auch verantwortlich gemacht werden zu können. Dies gilt für den militärischen Befehlshaber sowie für den Vorstand eines Rüstungskonzerns oder dessen Entwicklungspersonal gleichermaßen. Das Völkerstrafrecht muss dahingehend überprüft werden, ob beim Einsatz vollautonomer Systeme mögliche Lücken in der Anwendbarkeit vorhanden sind.46)

Zusammenfassung

Die in den aktuellen Konflikten zurzeit eingesetzten unbemannten Aufklärungs- und Waffensysteme sind noch ausschließlich teilautonom. Zwar verfügen bereits spezielle Selbstverteidigungs- und Nahbereichswaffensysteme über einen hohen Automationsgrad, doch dieser ist ausschließlich passiv ausgerichtet. Ein vollautonomes aktives System würde jedoch die Kriegführung entscheidend revolutionieren. Die Entscheidung über das Recht auf Leben bzw. auf körperliche Unversehrtheit würde dem Menschen aus der Hand genommen. Er würde zum bloßen Zuschauer degradiert werden. Ein vollautonomer Roboter ist in der Lage, selbstständig anhand von Sensoren Informationen über sein Umfeld zu sammeln. Diese werden mittels Hochleistungsprozessoren verarbeitet und bilden die Basis für eine Entscheidung. Diese wird dann mittels installierter Komponenten (wie z.B. Bewegungsmechanismen oder Waffen) umgesetzt. Durch entsprechende Erfahrungszunahme ist der Roboter immer mehr dazu in der Lage, sich zu optimieren. Die Wirksamkeit seiner Handlungen nimmt stetig zu. Ein möglicher Waffeneinsatz bleibt nicht mehr verhältnismäßig, sondern er wird effizienter. Die Software des Roboters arbeitet dabei basierend auf rein mathematischen Berechnungen und negiert ethische Abwägungen und Überlegungen. Es entsteht eine „Kampfmaschine“ (bzw. Killer Robot), der jede Hemmung fremd ist und die nur durch technisches Versagen oder Zerstörung bzw. (im Optimalfall) Befehl von außen gestoppt werden kann.
Aus philosophischer Sicht ist jeder Mensch als einzigartig zu betrachten. Die Entscheidung des Menschen, einen anderen zu töten, setzt eine Gewissensentscheidung voraus. Der individuelle Soldat, den das Völkerrecht legitimiert, einen anderen Soldaten zu töten, trifft diese Entscheidung aus eigener Überlegung, nach Prüfung der Notwendigkeit und unter Anwendung von ethischen Überlegungen. Diese Entscheidung kann aufgrund des vorherrschenden Gefechtsumfelds, aufgrund von Angst, Stress oder Konditionierung auch falsch getroffen werden. Sie bleibt aber dem Soldaten klar zurechenbar. Er muss dafür die Verantwortung tragen. Unabhängig davon, ob er diese ablehnt oder nicht. Diese Gewissensentscheidung des Menschen ist ein Produkt der menschlichen Vernunft. Diese Vernunft inkludiert einerseits Urteilskraft, Empathie und Mitgefühl, aber auch Angst, Hass und Wut. Menschliche Vernunft kennt hingegen auch Gnade und Vergebung. Dem Roboter sind derartige „vernünftige“ Emotionen fremd, er betrachtet den Menschen als Objekt, dessen möglicher Tod das Ergebnis eines algorithmischen Rechenprozesses darstellt. Eine derartige maschinelle Entscheidung kann somit nur als Verletzung der Menschenwürde angesehen werden.


ANMERKUNGEN:
1) Vgl. Jai Galliott: Military Robots - Mapping the Moral Landscape, Military and Defence Ethics Series, Dorchester 2015, S.95ff.
2) Vgl. Dickow: Robotik, 8. - John Anderson: Kognitive Psychologie, Heidelberg 2013, S.27ff.
3) Vgl. International Human Rights Clinic (IHRC), Human Rights Program at Harvard Law School, Human Rights Watch (HRW): Fully Autonomous Weapons: Questions and Answers. Harvard 2013, online unter: https://www.hrw.org/sites/default/files/supporting_resources/10.2013_killer_robots_qa.pdf (29. Februar 2016). - Im März 2016 startete das US-Unternehmen Microsoft zum ersten Mal den Versuch, eine Software online von den Nachrichten anderer Menschen lernen zu lassen. Ziel war es zu testen, wie sich „künstliche Intelligenz“ durch das Füttern von Informationen weiterentwickeln kann. Das Programm wurde unter dem Namen „TAY“ auf Twitter gestellt. Dort zeigten sich schnell dessen Grenzen. Die Twitter-User fütterten die Software gezielt mit einseitigen Informationen. Dies führte dazu, dass die Software begann rassistische und sexistische Mitteilungen online zu stellen. Das Experiment war gescheitert. - Vgl. Anna Steiner: Zum Nazi und Sexisten in 24 Stunden, online unter: http://www.faz.net/aktuell/ wirtschaft/netzwirtschaft/microsofts-bot-tay-wird-durch-nutzer-zum-nazi-und-sexist-14144019.html (15. April 2016).
4) Vgl. Martin Heidegger: Grundprobleme der Phänomenologie, Frankfurt am Main 1975, S.322.
5) Heidegger ist ein weithin anerkannter Philosoph, aber als Person nicht unumstritten. So sah er zuerst in den Nationalsozialisten die Möglichkeit, seine revolutionären Ideen verbreiten zu können. Heidegger wurde 1933 Rektor der Universität Freiburg und Mitglied der NSDAP. Mit Enttäuschung stellte er jedoch bald fest, dass die Nationalsozialisten seine Ideen zur Hochschulpolitik nur am Rande interessierten. Er legte daraufhin sein Amt als Rektor zurück und widmete sich ausschließlich der Forschung und Lehre. Heidegger trat in den nächsten Jahren politisch nicht mehr in Erscheinung, stand dem Nationalsozialismus während des Krieges aber auch nicht ausdrücklich ablehnend gegenüber. Trotzdem soll in den von ihm gehaltenen Vorträgen zunehmend versteckte Kritik am Regime enthalten gewesen sein. Nach dem Krieg gab er an, dass die Umstände des im Jahr 1934 durchgeführten Röhm-Putsches ihn ernüchtert und dem NS-Regime entfremdet hätten. Mit der Idee, ein Tausendjähriges Reich zu schaffen, konnte er sich nicht anfreunden. Ab Ende der 1930er begann er, sich intensiv mit der Technik und dem Menschen auseinanderzusetzen, und verfasste noch während des Krieges erste Notizen zur Thematik. Gegen Ende des Krieges wurde Heidegger noch kurz zum Volkssturm eingezogen, er überstand den Krieg jedoch ohne Schaden. Nach dem Krieg erhielt er vorerst ein Lehrverbot, das jedoch 1949 wieder aufgehoben wurde. In dieser Zeit begann er auch wieder, öffentlich Vorträge zu halten. Mit einem vom ihm 1947 verfassten „Brief über den Humanismus“ fand er wieder Anerkennung und Aufmerksamkeit. - Vgl. Inwood: Heidegger, S.13.
6) Vgl. Philipp David: Dem Unverfügbaren gelassen begegnen. Martin Heideggers wesentliche Besinnung auf die Technik. In: Christian Schwarke, Anne-Maren Richter: Technik und Lebenswirklichkeit - Philosophische und theologische Deutungen der Technik im Zeitalter der Moderne, Stuttgart 2014, S.33ff.
7) Ebd., S.39.
8) Willem Van Reijen: Martin Heidegger, Paderborn 2009, S.132.
9) Vgl. Philipp David: Dem Unverfügbaren gelassen begegnen. Martin Heideggers wesentliche Besinnung auf die Technik. In: Christian Schwarke, Anne-Maren Richter: Technik und Lebenswirklichkeit - Philosophische und theologische Deutungen der Technik im Zeitalter der Moderne, Stuttgart 2014, S.50f.
10) Martin Heidegger: Die Technik und die Kehre, Stuttgart 2002, S.37.
11) Anders wurde ursprünglich unter dem Namen Günther Stern geboren und war Sohn zweier jüdischer Psychologen. Nach dem Studium an der Universität Freiburg promovierte er bei Edmund Husserl im Jahr 1923 über die Phänomenologie. Danach ging er nach Berlin, wo er Hannah Arendt, die er zuvor bei einem Aufenthalt in Marburg kennengelernt hatte, heiratete. Für seine Fülle von Aufsätzen und Artikeln, die er in diversen Zeitschriften zu philosophischen Themen veröffentlichte, wählte er als Pseudonym den Namen „Günther Anders“. Anders verfolgte ohne Illusionen den Aufstieg der Nationalsozialisten und zog als Jude bereits früh die Konsequenzen. Er emigrierte 1933 nach Paris, ließ sich von Arendt scheiden und reiste 1936 schließlich nach New York. Dort erlebte er den Ausbruch des Zweiten Weltkrieges. In Amerika hielt er sich einige Jahre mit diversen Gelegenheitsjobs am Leben. Dabei arbeitete er auch am Fließband, was dazu führte, dass er sich erstmals intensiv mit der Technik und ihren Folgen auseinandersetzte. Nach Ende des Krieges kehrte er im Jahr 1950, mittlerweile neuerlich verheiratet, nach Europa zurück und ließ sich hier mit seiner Frau in Wien nieder. - Vgl. Christian Dries: Günther Anders, Paderborn 2009, S.14ff.
12) Günther Anders: Die Antiquiertheit des Menschen Band 1 - Über unsere Seele im Zeitalter der zweiten industriellen Revolution, München 2002.
13) Vgl. Dries: Günther Anders, S.14ff.
14) Günther Anders: Die Antiquiertheit des Menschen Band 2 - Über die Zerstörung des Lebens im Zeitalter der dritten industriellen Revolution, München 2002, S.9.
15) Günther Anders: Die Zerstörung unserer Zukunft - Ein Lesebuch, Zürich 2011, S.33.
16) Vgl. Anders: Die Zerstörung unserer Zukunft, S.37.
17) Vgl. Anders: Die Zerstörung unserer Zukunft, S.69.
18) Ebd., S.77.
19) Vgl. Arbeitskreis Internationale Sicherheitspolitik der Friedrich Ebert Stiftung (Hrsg): Neue digitale Militärtechnologien und autonome Waffensysteme - Die Zukunft der Kriegführung, Berlin 2015, S.5.
20) Vgl. Ingeborg Jacobs: Stanislaw Petrow - Der Mann, der den Atomkrieg verhinderte, Berlin 2015. - Der Vorfall wurde vorerst vom sowjetischen Militär verschwiegen, Petrow selbst weder bestraft noch belohnt. Erst später erhielt er für seine Mitwirkung beim Aufbau des Frühwarnsystems eine Auszeichnung und eine Beförderung. Der Fall wurde schließlich erst nach dem Ende der Sowjetunion einer breiten Öffentlichkeit bekannt. Der Umstand, dass Petrow nicht unmittelbar nach dem Vorfall bestraft wurde, lässt jedoch den Schluss zu, dass seinen Vorgesetzten die Brisanz der Situation bewusst gewesen sein musste.
21) Vgl. Wolfgang Bartuschat: Baruch De Spinoza, München 2006, S.99.
22) Marcuse begann nach dem Ersten Weltkrieg, wo er zwar eingezogen, jedoch aufgrund eines Augenleidens nicht an der Front eingesetzt worden war, ein Studium an der Universität von Berlin. Er schloss dieses im Jahr 1922 mit seiner Promotion ab. Ab dem Jahr 1928 belegte er bei Heidegger mehrere Vorlesungen und wurde auch sein Assistent. Er befasste sich in dieser Zeit intensiv mit den frühen Werken von Karl Marx und schloss sich dessen Kritik am Kapital an. Er kritisierte v.a., dass in einer kapitalistischen Gesellschaft die Entfaltungsmöglichkeiten des Menschen eingeengt werden würden. Als Sohn jüdischer Eltern musste Marcuse nach der Machtübernahme Hitlers im Jahr 1933 in die Schweiz emigrieren. Dort setzte er sich sogleich in einigen Aufsätzen und Referaten kritisch mit seinem Lehrer Heidegger und dessen Stellung im Nationalsozialismus auseinander. Marcuse kritisierte vehement Heideggers Nähe zum Nationalsozialismus. In Genf arbeitete er unter der Leitung Max Horkheimers, eines bekannten Sozialforschers, an dessen Institut für Sozialforschung. Horkheimer hatte um sich einen Kreis sozialkritischer und marxistischer Denker gesammelt. Diese Interessengemeinschaft wurde in Folge als die so genannte Frankfurter Schule bzw. als treibende Kraft des Neomarxismus bekannt. Als Horkheimer mit dem Institut für Sozialforschung in die USA übersiedelte, folgte Marcuse ihm nach. Sein Chef Horkheimer war es auch, der Marcuse dazu überredete, ab 1942 für den neugegründeten Office of Strategic Service (OSS), die Vorläuferorganisation der heutigen amerikanischen CIA, zu arbeiten. Im Jahr 1954 erhielt Marcuse seine erste ordentliche Professur. Auch nach dem Krieg war seine Kritik an Heidegger nicht verstummt. So forderte er ihn bereits im Jahr 1947 auf, sich öffentlich vom Nationalsozialismus zu distanzieren. Zumindest in der Kritik blieb Marcuse somit seinem ehemaligen Lehrer verbunden. - Vgl. Herbert Marcuse: Der Kampf gegen den Liberalismus in der totalitären Staatsauffassung. In: Zeitschrift für Sozialforschung 3, Heft 2, o.O. 1934.
23) Vgl. Herbert Marcuse: Der eindimensionale Mensch - Studien zur Ideologie der fortgeschrittenen Industriegesellschaft, Frankfurt 1967. - Peter-Erwin Jansen (Hrsg): Herbert Marcuse: Der eindimensionale Mensch - Studien zur Ideologie der fortgeschrittenen Industriegesellschaft, Springe 2014, S.285f.
24) Marcuse: Der eindimensionale Mensch, S.23.
25) Herbert Marcuse: Industrialisierung und Kapitalismus im Werk Max Webers. In: Kultur und Gesellschaft, Heft 2, o.O. 1970, S.127.
26) Herbert Marcuse: Der eindimensionale Mensch - Studien zur Ideologie der fortgeschrittenen Industriegesellschaft, Frankfurt 1967, S.258.
27) Herfried Münkler: Drohnen sind ideale Waffen. In: Neue Züricher Zeitung, 24. Februar 2016, online unter: http://www.nzz.ch/nzzas/nzz-am-sonntag/politik-wissenschafter-herfried-muenkler-drohnen-sind-ideale-waffen-ld.5651 (29. Februar 2016).
28) Vgl. Arendt: Völkerrechtliche Probleme beim Einsatz autonomer Waffensysteme, S.121f.
29) Vgl. Robert Frau: Völkerstrafrechtliche Aspekte automatisierter und autonomer Kriegführung. In: Robert Frau (Hrsg.): Drohnen und das Recht, Völker- und Verfassungsrechtliche Fragen automatisierter und autonomer Kriegführung, Tübingen 2014, S.235ff u. 250.
30) Vgl. Eben Barlow: Composite Warfare - The Conduct of Successful Ground Force Operations in Africa, Pinetown 2015. - Der Autor, ehemaliger südafrikanischer Offizier und einer der Gründer der PMC STTEP (Specialised Tasks, Training, Equipment and Protection International), beschreibt in seinem Buch ausführlich die „erfolgreichen“ Operationen von PMCs in Afrika. Im Jahr 2015 wurde STTEP von der nigerianischen Regierung zur Bekämpfung der Terrororganisation Boko Haram angeworben.
31) Vgl. International Law Commission (ILC): Draft Articles on Responsibility of States for Internationally Wrongful Acts, with Commentaries, online unter: http://legal.un.org/ ilc/texts/instruments/english/ commentaries/9_6_2001.pdf (29. Februar 2015). - Der Art. 4 Abs. 1 und 2. (Conduct of organs of a State) der Draft Articles on Responsibility of States for Internationally Wrongful Acts im Wortlaut: „1. The conduct of any State organ shall be considered an act of that State under international law, whether the organ exercises legislative, executive, judicial or any other functions, whatever position it holds in the organization of the State, and whatever its character as an organ of the central Government or of a territorial unit of the State. 2. An organ includes any person or entity which has that status in accordance with the internal law of the State.“
32) Vgl. European Parliament, Directorate-General for External Policies - Policy Department: Human Rights Implications of the Usage of Drones, S.38.
33) Vgl. Arendt, Völkerrechtliche Probleme beim Einsatz autonomer Waffensysteme, S.121f.
34) Vgl. James Crawford: The International Law Commission’s Articles on State Responsibility, Introduction, Text and Commentaries, Oxford 2003, 170ff. - European Parliament, Directorate-General for External Policies - Policy Department: Human Rights Implications of the Usage of Drones, S.40.
35) Vgl. European Parliament, Directorate-General for External Policies - Policy Department: Human Rights Implications of the Usage of Drones, 42. - Die relevanten Artikel sind: Art. 12, 13, 17 u. 20 ICC-Statut bzw. Art 36 (2) ICJ Statut.
36) Vgl. Udo Moewes: Staatshaftungsrechtliche Implikationen automatisierter Kriegführung. In: Robert Frau (Hrsg.): Drohnen und das Recht, Völker- und Verfassungsrechtliche Fragen automatisierter und autonomer Kriegführung, Tübingen 2014, S.213.
37) Robin Geiss: Die Völkerrechtliche Dimension autonomer Waffensysteme, Friedrich Ebert Stiftung, Berlin 2015, S.24.
38) Vgl. Ebd., S.24.
39) Vgl. Kai Ambos: Internationales Strafrecht, - Strafanwendungsrecht, Völkerstrafrecht, Europäisches Strafrecht, Rechtshilfe, 4. Auflage, München 2014.
40) Vgl. Arendt, Völkerrechtliche Probleme beim Einsatz autonomer Waffensysteme, S.125.
41) Vgl. International Criminal Court (ICC): Rome Statute of the International Criminal Court, online unter: https://www.icc-cpi.int/nr/rdonlyres/ea9aeff7-5752-4f84-be94-0a655eb30e16/0/rome_sta-tute_english.pdf (29. Februar 2016). - Der Art. 28 Abs a. (Responsibility of commanders and other superiors) des Römischen Statuts des ICC im Wortlaut: „A military commander or person effectively acting as a military commander shall be criminally responsible for crimes within the jurisdiction of the Court committed by forces under his or her effective command and control, or effective authority and control as the case may be, as a result of his or her failure to exercise control properly over such forces, where: (i) That military commander or person either knew or, owing to the circumstances at the time, should have known that the forces were committing or about to commit such crimes; and (ii) That military commander or person failed to take all necessary and reasonable measures within his or her power to prevent or repress their commission or to submit the matter to the competent authorities for investigation and prosecution.“
42) Vgl. Arendt: Völkerrechtliche Probleme beim Einsatz autonomer Waffensysteme, S.128. - Dies ist nicht unumstritten. Arendt argumentiert z.B., dass: „…eine Strafbarkeit am Unmittelbarkeitszusammenhang scheitert, nachdem jede Handlung ein wesentlicher Beitrag zur Tat sein muss.“
43) Vgl. Arendt: Völkerrechtliche Probleme beim Einsatz autonomer Waffensysteme, S.130ff.
44) Vgl. Arendt: Völkerrechtliche Probleme beim Einsatz autonomer Waffensysteme, S.130ff.
45) Vgl. Robin Geiss: Die Völkerrechtliche Dimension autonomer Waffensysteme, Friedrich Ebert Stiftung, Berlin 2015, S.21ff.
46) Vgl. Arendt: Völkerrechtliche Probleme beim Einsatz autonomer Waffensysteme, S.152.