Zum Inhalt springen
LAWS | HIIG Science Blog
03 September 2019| doi: 10.5281/zenodo.3520748

Autonome Waffen – Realität oder Imagination?

Wie autonom sind autonome Waffen? Wie real sind sie bereits? Und welchen Anteil haben Fiktionen wie der Terminator daran, wie wir über diese Technik denken? Diese Fragen standen im Zentrum der HIIG-Veranstaltung Autonome Waffensysteme – Realitäten und Imaginationen zukünftiger Kriegführung. Christoph Ernst (Universität Bonn) und HIIG-Forscher Thomas Christian Bächle fassen zusammen, was wir aus der Betrachtung dieser Waffensysteme über technische Autonomie lernen können.


More on this topic in our podcast with Frank Sauer:


Drohnen sind mittlerweile zum Sinnbild einer Entwicklung geworden, die Militär, Politik, Industrie und die Zivilgesellschaft in Atem hält: die Autonomisierung von Waffensystemen. Hinter diesem sperrigen Begriff verbirgt sich das Vorhaben, Waffen mit Fähigkeiten zu einer selbstständigen Missionserfüllung auszustatten. In der Versicherung der Militärs, dass Menschen jederzeit die Kontrolle über diese autonom genannten Waffen behalten, liegt ein deutlicher Widerspruch: Diese Systeme können sich nicht nur selbstständig orientieren, sondern besitzen sehr wohl auch die Funktion, von menschlicher Entscheidungsfähigkeit unabhängige militärische Aktionen durchzuführen, beispielsweise den Abschuss eines sich nähernden Flugkörpers herbeizuführen. Prinzipiell sind sie damit in bestimmten Kontexten dazu in der Lage, Menschen zu verletzen und zu töten, weshalb den als „AWS“ abgekürzten „Autonomen Waffensystemen“ oft ein L (für engl. lethal; LAWS) als Attribut für ihre todbringenden Funktionen vorangestellt wird. Diese von auf künstlicher Intelligenz basierten Computersystemen herbeigeführten Entscheidungen ziehen potenziell gravierende Konsequenzen nach sich. Wie folgenschwer sie in Kampfhandlungen sein dürfen, wird kontrovers debattiert und wirft zugleich eine Vielzahl offener Fragen auf.

Vor diesem Hintergrund erstaunt zunächst, dass es keinen Konsens darüber gibt, wann Waffen überhaupt als autonom zu gelten haben und in welcher Hinsicht sie sich von automatischen Waffen unterscheiden. Seit langem existiert eine kaum mehr überschaubare Anzahl an Waffensystemen mit hohem Automatisierungsgrad. Oft genannte Beispiele sind das amerikanische Phalanx- (siehe Abbildung) oder das deutsche Mantis-System, die zur Nahbereichsverteidigung eingesetzt werden. Diese Systeme haben die Aufgabe, schnell anfliegende Flugkörper durch automatisch ausgelösten Beschuss abzuwehren. Es handelt sich um stationäre Systeme, die vordefinierte Prozesse ausführen. Als autonom wird dagegen ein technisches System bezeichnet, wenn eine menschliche Steuerung nicht erforderlich ist und es sich nach seiner Aktivierung für einen längeren Zeitraum in dynamischen und unstrukturierten Umgebungen bewegen und sich diesen anpassen kann. Die definitorischen Grenzen sind jedoch fließend. Sicher jedoch ist, dass die Autonomie der Waffen mit Autonomie im menschlichen Sinn wenig zu tun hat, mit der vielmehr die Fähigkeit benannt wird, sich selbst Regeln zu geben und damit an Freiheit zu gewinnen.

Doch ganz frei von Bezügen zum menschlichen Begriff von Autonomie ist auch die Expertendiskussion nicht. So heißt es beispielsweise in einem von der chinesischen Delegation in der Gruppe der Regierungsexperten bei der UN-Konvention über bestimmte konventionelle Waffen im April 2018 veröffentlichten Positionspapier: Die Autonomie solcher Systeme sei u. a. als völlige „Abwesenheit menschlicher Intervention“ zu verstehen: Ohne die Möglichkeit sie abzuschalten verfügen diese Waffen gar über eine als „Evolution“ bezeichnete, von Menschen unabhängige Fähigkeit, „autonom zu lernen“. Diese Definitionen stellen ausdrücklich Assoziationen mit menschlicher Autonomie her. Ihre politische Relevanz erhalten sie dabei nicht etwa durch die Forderung nach einer Entwicklung von in einem solchen Sinne autonomen Systeme. Vielmehr hat ein solches Verständnis von Autonomie vermutlich das Ziel, von bereits existierenden Waffensystemen abzulenken, die zwar die Kriterien menschlicher Autonomie keinesfalls erfüllen, aber durchaus selbstständig agieren können.  

Im Zusammenhang mit LAWS oft bemühte Verweise auf Science-Fiction-Szenarien wie die Autonomie des Killerroboters in den Terminator-Filmen prägen kollektive Vorstellungen über autonome Waffen, führen aber scheinbar deutlich in die Irre und werden in Fachdiskursen zurückgewiesen. Doch die Einschätzungen zur Realität des Machbaren werden in der Diskussion um LAWS von fiktiven Spekulationen über denkbare Szenarien viel stärker überlagert, als es in den fachlichen Debatten gewünscht ist oder behauptet wird. Mithilfe des Autonomiebegriffs lassen sich derzeit beide sehr widersprüchlichen Aspekte bündeln: Er bietet einerseits die Möglichkeit, faktisch existierende Waffensysteme zu klassifizieren (technische Autonomie) wie andererseits derzeit rein fiktionale Erwartungen an Waffentechnologie zu markieren (personale, menschliche Autonomie).

So betrachtet erweist sich die Diskussion um LAWS und ihre Regulierung als ein nur kleiner Ausschnitt einer größeren Debatte um technische Autonomie generell: Die Weiterentwicklung von technischer Autonomie in Richtung von Fähigkeiten, die eigentlich als Merkmale menschlicher Autonomie gedeutet werden, wird gegenwärtig als scheinbar unausweichlich wahrgenommen. Auch das besondere Interesse, das letale autonome Waffensysteme derzeit sowohl in Fachkreisen als auch der breiten Öffentlichkeit auf sich ziehen, liegt genau darin begründet – in der zweifelhaften Erwartung intelligenter technischer Systeme, die über Lernfähigkeit, einen Willen und ein Bewusstsein verfügen.

Ein reales Waffensystem – das PHALANX-Nahbereichsverteidigungssystem (links, Abbildung 1) – lässt sich imaginativ schrittweise in einen Terminator (Mitte, den Terminator T-1, Abbildung 2; rechts, den T-800, Screenshot aus James Camerons Terminator 2; USA 1991, Abbildung 3) verwandeln. Die Transformation eines Waffensystems, das in den frühen 1980er-Jahren bekannt wurde, wird fiktional mit visuellen Mitteln weitererzählt. Science-Fiction ist maßgeblich daran beteiligt, heutige kulturelle Vorstellungen von LAWS zu prägen. Diese können nur vollständig erfasst werden, wenn man die imaginative Vorwegnahme der technischen Möglichkeiten mit beachtet.

Die Realität von LAWS ist damit von Erwartungen gegenüber dem Möglichen durchsetzt. Ihre gesellschaftlichen, politischen, rechtlichen oder ethischen Bedeutungen müssen als Ausdruck vielgestaltiger, durch Expertendiskurse wie Populärkultur gleichermaßen beeinflusster, sozialer Imaginationsprozesse gewertet werden. Die primäre Aufgabe dieser Imaginationen ist, einer erwarteten Zukunft eine Gestalt zu geben, die sowohl zur Grundlage von Bestrebungen nach ihrer technischen Umsetzung als auch kritischer Debatten werden kann. Es gilt daher neben den Realitäten technischer Funktionalität, also der Faktizität von LAWS, immer auch die Vorstellungen über LAWS zu hinterfragen. Welche rhetorischen Mittel werden genutzt? Welche Ängste angesprochen? Welche Absichten und Zwecke verfolgt?

Nur die Analyse der Imagination erlaubt es, die Realität einer Technologie zu fassen, die noch nicht Wirklichkeit geworden ist.

Die Autoren: PD Dr. Christoph Ernst ist Medienwissenschaftler an der Universität Bonn mit den Forschungsschwerpunkten: Diagrammatik und Informationsvisualisierung, Implizites Wissen und digitale Medien (insb. Interfaces) sowie Medienwandel und Imagination. Dr. Thomas Christian Bächle ist Forschungsprogrammleiter am HIIG. 


Weiterführende Literatur

Altmann, Jürgen/Sauer, Frank (2017): »Autonomous Weapons Systems and Strategic Stability«, in: Survival 59, 5, S. 117-142.

Ernst, Christoph (2019): »Beyond Meaningful Human Control? – Interfaces und die Imagination menschlicher Kontrolle in der zeitgenössischen Diskussion um autonome Waffensysteme (AWS)«, in: Caja Thimm/Thomas Christian Bächle (Hg.): Die Maschine: Freund oder Feind? Mensch und Technologie im digitalen Zeitalter, Wiesbaden: VS Verlag für Sozialwissenschaften, S. 261-299. DOI: 10.1007/978-3-658-22954-2_12

Suchman, Lucy A./Weber, Jutta (2016): »Human-Machine-Autonomies«, in: Nehal Bhuta u. a. (Hg.): Autonomous Weapons Systems. Law, Ethics, Policy, Cambridge & New York, NY: Cambridge Univ. Press, S. 75-102.

Quellenangaben zu den benutzten Abbildungen

Abbildung 1: Phalanx; Quelle: https://en.wikipedia.org/wiki/Phalanx_CIWS#/media/File:Phalanx_CIWS_USS_Jason_Dunham.jpg| Gesehen am 14.08.2019

Abbildung 2: Terminator T-1; Quelle: https://terminator.fandom.com/wiki/File:14989_0883_1_lg.jpg | Gesehen am 14.08.2019

Abbildung 3: Screenshot aus Terminator 2 – Judgement Day (1991); Quelle: https://terminator.fandom.com/wiki/Minigun | Gesehen am 14.08.2019

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Thomas Christian Bächle, Dr.

Forschungsprogrammleiter: Die Entwicklung der digitalen Gesellschaft

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Man sieht an mehreren Stellen gebrochenes Glas, das die komplexen und dynamischen Verhältnisse zwischen Menschen und intelligenten autonomen Systemen darstellt. You can see broken glass in several places, representing the complex and dynamic relationships between humans and intelligent autonomous systems.

Autonomie, autonome Systeme und Roboter

In unserer Forschung untersuchen wir das komplexe und dynamische Verhältnis zwischen Menschen und intelligenten autonomen Systemen.

Weitere Artikel

Das Bild zeigt eine Wand mit vielen Uhren, die alle eine andere Uhrzeit zeigen. Das symbolisiert die paradoxen Effekte von generativer KI am Arbeitsplatz auf die Produktivität.

Zwischen Zeitersparnis und Zusatzaufwand: Generative KI in der Arbeitswelt

Generative KI am Arbeitsplatz steigert die Produktivität, doch die Erfahrungen sind gemischt. Dieser Beitrag beleuchtet die paradoxen Effekte von Chatbots.

Das Bild zeigt sieben gelbe Köpfe von Lego-Figuren mit unterschiedlichen Emotionen. Das symbolisiert die Gefühle, die Lehrende an Hochschulen als innere Widerstände gegen veränderung durchleben.

Widerstände gegen Veränderung: Herausforderungen und Chancen in der digitalen Hochschullehre

Widerstände gegen Veränderung an Hochschulen sind unvermeidlich. Doch richtig verstanden, können sie helfen, den digitalen Wandel konstruktiv zu gestalten.

Das Foto zeigt einen jungen Löwen, symbolisch für unseren KI-unterstützten Textvereinfacher Simba, der von der Forschungsgruppe Public Interest AI entwickelt wurde.

Von der Theorie zur Praxis und zurück: Eine Reise durch Public Interest AI

In diesem Blogbeitrag reflektieren wir unsere anfänglichen Überlegungen zur Public Interest AI anhand der Erfahrungen bei der Entwicklung von Simba.