Vollautonome Waffensysteme - Überlegungen der Technikethik

Markus Reisner

 

Betrachtet man die technologischen Entwicklungen der letzten Jahrzehnte, so scheint es, dass in Zukunft auch die Entwicklung von vollautonomen unbemannten Systemen möglich ist. Die Erfindung eines selbstständig agierenden Roboters, dem Traum vieler Science-Fiction-Autoren, scheint machbar. Es ist bereits eine Reihe von Systemen verfügbar, welche mit einem hohen Autonomie- bzw. Automationsgrad eingesetzt werden können. Sie kommen in einem Bereich zur Anwendung, wo die menschliche Reaktionszeit einen geforderten Erfolg verhindern würde. Die in den nächsten Jahren zu erwartenden Investitionen internationaler Streitkräfte in Unmanned Systems lassen berechtigterweise den Schluss zu, dass auch in die Erforschung möglicher vollautonomer Systeme zumindest „indirekt“ investiert werden wird. Die in den Konflikten zurzeit eingesetzten unbemannten Aufklärungs- und Waffensysteme sind noch ausschließlich teilautonom. Zwar verfügen bereits spezielle Selbstverteidigungs- und Nahbereichswaffensysteme über einen hohen Automationsgrad, doch dieser ist ausschließlich passiv ausgerichtet. Ein vollautonomes aktives System würde jedoch die Kriegsführung entscheidend revolutionieren. Die Entscheidung über das Recht auf Leben, bzw. auf körperliche Unversehrtheit würde dem Menschen aus der Hand genommen. Er würde zum bloßen Zuschauer degradiert werden. Ein vollautonomer Roboter ist in der Lage, selbstständig anhand von Sensoren Informationen über sein Umfeld zu sammeln. Diese werden mittels Hochleistungsprozessoren verarbeitet und bilden die Basis für eine Entscheidung. Diese wird dann mittels installierter Komponenten (wie z.B. Bewegungsmechanismen oder Waffen) umgesetzt. Durch entsprechende Erfahrungszunahme ist der Roboter immer mehr dazu in der Lage sich zu optimieren. Die Wirksamkeit seiner Handlungen nimmt stetig zu. Ein möglicher Waffeneinsatz bleibt nicht mehr verhältnismäßig, sondern er wird effizienter. Die Software des Roboters arbeitet dabei basierend auf rein mathematischen Berechnungen und negiert moralische oder ethische Abwägungen und Überlegungen. Es entsteht eine „Kampfmaschine“ (bzw. Killer Robot), der jede Hemmung fremd ist und welche nur durch technisches Versagen oder Zerstörung bzw. (im Optimalfall) Befehl von außen gestoppt werden kann. Aus philosophischer Sicht ist jeder Mensch als einzigartig zu betrachten. Die Entscheidung des Menschen einen anderen zu töten, setzt eine Gewissensentscheidung voraus. Der individuelle Soldat, den das Völkerrecht legitimiert, einen anderen Soldaten zu töten, trifft diese Entscheidung aus eigener Überlegung, nach Prüfung der Notwendigkeit und unter Anwendung von ethischen Überlegungen. Diese Entscheidung kann aufgrund des vorherrschenden Gefechtsumfelds, aufgrund von Angst, Stress oder Konditionierung auch falsch getroffen werden. Sie bleibt aber dem Soldaten klar zurechenbar. Er muss dafür die Verantwortung tragen. Unabhängig davon, ob er diese ablehnt oder nicht. Diese Gewissensentscheidung des Menschen ist ein Produkt der menschlichen Vernunft. Diese Vernunft inkludiert einerseits Urteilskraft, Empathie und Mitgefühl, aber auch Angst, Hass und Wut. Menschliche Vernunft kennt hingegen auch Gnade und Vergebung. Dem Roboter sind derartige „vernünftige“ Emotionen fremd, er betrachtet den Menschen als Objekt, dessen möglicher Tod das Ergebnis eines algorithmischen Rechenprozesses darstellt. Eine derartige maschinelle Entscheidung kann somit nur als Verletzung der Menschenwürde angesehen werden.