DIGITAL SOCIETY BLOG

Making sense of our connected world

DIGITAL SOCIETY BLOG

Making sense of our connected world

LAWS | HIIG Science Blog

Autonomous weapons – reality or imagination?

03 September 2019

How autonomous are autonomous weapons? How real are they already? And to what extent do fictions like the Terminator contribute to how we think about this technology? These questions were at the center of the HIIG event Autonomous Weapon Systems – Realities and Imaginations of Future Warfare. Christoph Ernst (University of Bonn) and HIIG researcher Thomas Christian Bächle summarise what we can learn about technical autonomy from looking at these weapon systems.


Drohnen sind mittlerweile zum Sinnbild einer Entwicklung geworden, die Militär, Politik, Industrie und die Zivilgesellschaft in Atem hält: die Autonomisierung von Waffensystemen. Hinter diesem sperrigen Begriff verbirgt sich das Vorhaben, Waffen mit Fähigkeiten zu einer selbstständigen Missionserfüllung auszustatten. In der Versicherung der Militärs, dass Menschen jederzeit die Kontrolle über diese autonom genannten Waffen behalten, liegt ein deutlicher Widerspruch: Diese Systeme können sich nicht nur selbstständig orientieren, sondern besitzen sehr wohl auch die Funktion, von menschlicher Entscheidungsfähigkeit unabhängige militärische Aktionen durchzuführen, beispielsweise den Abschuss eines sich nähernden Flugkörpers herbeizuführen. Prinzipiell sind sie damit in bestimmten Kontexten dazu in der Lage, Menschen zu verletzen und zu töten, weshalb den als „AWS“ abgekürzten „Autonomen Waffensystemen“ oft ein L (für engl. lethal; LAWS) als Attribut für ihre todbringenden Funktionen vorangestellt wird. Diese von auf künstlicher Intelligenz basierten Computersystemen herbeigeführten Entscheidungen ziehen potenziell gravierende Konsequenzen nach sich. Wie folgenschwer sie in Kampfhandlungen sein dürfen, wird kontrovers debattiert und wirft zugleich eine Vielzahl offener Fragen auf.

Vor diesem Hintergrund erstaunt zunächst, dass es keinen Konsens darüber gibt, wann Waffen überhaupt als autonom zu gelten haben und in welcher Hinsicht sie sich von automatischen Waffen unterscheiden. Seit langem existiert eine kaum mehr überschaubare Anzahl an Waffensystemen mit hohem Automatisierungsgrad. Oft genannte Beispiele sind das amerikanische Phalanx- (siehe Abbildung) oder das deutsche Mantis-System, die zur Nahbereichsverteidigung eingesetzt werden. Diese Systeme haben die Aufgabe, schnell anfliegende Flugkörper durch automatisch ausgelösten Beschuss abzuwehren. Es handelt sich um stationäre Systeme, die vordefinierte Prozesse ausführen. Als autonom wird dagegen ein technisches System bezeichnet, wenn eine menschliche Steuerung nicht erforderlich ist und es sich nach seiner Aktivierung für einen längeren Zeitraum in dynamischen und unstrukturierten Umgebungen bewegen und sich diesen anpassen kann. Die definitorischen Grenzen sind jedoch fließend. Sicher jedoch ist, dass die Autonomie der Waffen mit Autonomie im menschlichen Sinn wenig zu tun hat, mit der vielmehr die Fähigkeit benannt wird, sich selbst Regeln zu geben und damit an Freiheit zu gewinnen.

Doch ganz frei von Bezügen zum menschlichen Begriff von Autonomie ist auch die Expertendiskussion nicht. So heißt es beispielsweise in einem von der chinesischen Delegation in der Gruppe der Regierungsexperten bei der UN-Konvention über bestimmte konventionelle Waffen im April 2018 veröffentlichten Positionspapier: Die Autonomie solcher Systeme sei u. a. als völlige „Abwesenheit menschlicher Intervention“ zu verstehen: Ohne die Möglichkeit sie abzuschalten verfügen diese Waffen gar über eine als „Evolution“ bezeichnete, von Menschen unabhängige Fähigkeit, „autonom zu lernen“. Diese Definitionen stellen ausdrücklich Assoziationen mit menschlicher Autonomie her. Ihre politische Relevanz erhalten sie dabei nicht etwa durch die Forderung nach einer Entwicklung von in einem solchen Sinne autonomen Systeme. Vielmehr hat ein solches Verständnis von Autonomie vermutlich das Ziel, von bereits existierenden Waffensystemen abzulenken, die zwar die Kriterien menschlicher Autonomie keinesfalls erfüllen, aber durchaus selbstständig agieren können.

Im Zusammenhang mit LAWS oft bemühte Verweise auf Science-Fiction-Szenarien wie die Autonomie des Killerroboters in den Terminator-Filmen prägen kollektive Vorstellungen über autonome Waffen, führen aber scheinbar deutlich in die Irre und werden in Fachdiskursen zurückgewiesen. Doch die Einschätzungen zur Realität des Machbaren werden in der Diskussion um LAWS von fiktiven Spekulationen über denkbare Szenarien viel stärker überlagert, als es in den fachlichen Debatten gewünscht ist oder behauptet wird. Mithilfe des Autonomiebegriffs lassen sich derzeit beide sehr widersprüchlichen Aspekte bündeln: Er bietet einerseits die Möglichkeit, faktisch existierende Waffensysteme zu klassifizieren (technische Autonomie) wie andererseits derzeit rein fiktionale Erwartungen an Waffentechnologie zu markieren (personale, menschliche Autonomie).

So betrachtet erweist sich die Diskussion um LAWS und ihre Regulierung als ein nur kleiner Ausschnitt einer größeren Debatte um technische Autonomie generell: Die Weiterentwicklung von technischer Autonomie in Richtung von Fähigkeiten, die eigentlich als Merkmale menschlicher Autonomie gedeutet werden, wird gegenwärtig als scheinbar unausweichlich wahrgenommen. Auch das besondere Interesse, das letale autonome Waffensysteme derzeit sowohl in Fachkreisen als auch der breiten Öffentlichkeit auf sich ziehen, liegt genau darin begründet – in der zweifelhaften Erwartung intelligenter technischer Systeme, die über Lernfähigkeit, einen Willen und ein Bewusstsein verfügen.

Ein reales Waffensystem – das PHALANX-Nahbereichsverteidigungssystem (links, Abbildung 1) – lässt sich imaginativ schrittweise in einen Terminator (Mitte, den Terminator T-1, Abbildung 2; rechts, den T-800, Screenshot aus James Camerons Terminator 2; USA 1991, Abbildung 3) verwandeln. Die Transformation eines Waffensystems, das in den frühen 1980er-Jahren bekannt wurde, wird fiktional mit visuellen Mitteln weitererzählt. Science-Fiction ist maßgeblich daran beteiligt, heutige kulturelle Vorstellungen von LAWS zu prägen. Diese können nur vollständig erfasst werden, wenn man die imaginative Vorwegnahme der technischen Möglichkeiten mit beachtet.

Die Realität von LAWS ist damit von Erwartungen gegenüber dem Möglichen durchsetzt. Ihre gesellschaftlichen, politischen, rechtlichen oder ethischen Bedeutungen müssen als Ausdruck vielgestaltiger, durch Expertendiskurse wie Populärkultur gleichermaßen beeinflusster, sozialer Imaginationsprozesse gewertet werden. Die primäre Aufgabe dieser Imaginationen ist, einer erwarteten Zukunft eine Gestalt zu geben, die sowohl zur Grundlage von Bestrebungen nach ihrer technischen Umsetzung als auch kritischer Debatten werden kann. Es gilt daher neben den Realitäten technischer Funktionalität, also der Faktizität von LAWS, immer auch die Vorstellungen über LAWS zu hinterfragen. Welche rhetorischen Mittel werden genutzt? Welche Ängste angesprochen? Welche Absichten und Zwecke verfolgt?

Nur die Analyse der Imagination erlaubt es, die Realität einer Technologie zu fassen, die noch nicht Wirklichkeit geworden ist.

Die Autoren: PD Dr. Christoph Ernst ist Medienwissenschaftler an der Universität Bonn mit den Forschungsschwerpunkten: Diagrammatik und Informationsvisualisierung, Implizites Wissen und digitale Medien (insb. Interfaces) sowie Medienwandel und Imagination. Dr. Thomas Christian Bächle ist Forschungsprogrammleiter am HIIG.


Weiterführende Literatur

Altmann, Jürgen/Sauer, Frank (2017): »Autonomous Weapons Systems and Strategic Stability«, in: Survival 59, 5, S. 117-142.

Ernst, Christoph (2019): »Beyond Meaningful Human Control? – Interfaces und die Imagination menschlicher Kontrolle in der zeitgenössischen Diskussion um autonome Waffensysteme (AWS)«, in: Caja Thimm/Thomas Christian Bächle (Hg.): Die Maschine: Freund oder Feind? Mensch und Technologie im digitalen Zeitalter, Wiesbaden: VS Verlag für Sozialwissenschaften, S. 261-299. DOI: 10.1007/978-3-658-22954-2_12

Suchman, Lucy A./Weber, Jutta (2016): »Human-Machine-Autonomies«, in: Nehal Bhuta u. a. (Hg.): Autonomous Weapons Systems. Law, Ethics, Policy, Cambridge & New York, NY: Cambridge Univ. Press, S. 75-102.

Quellenangaben zu den benutzten Abbildungen

Abbildung 1: Phalanx; Quelle: https://en.wikipedia.org/wiki/Phalanx_CIWS#/media/File:Phalanx_CIWS_USS_Jason_Dunham.jpg| Gesehen am 14.08.2019

Abbildung 2: Terminator T-1; Quelle: https://terminator.fandom.com/wiki/File:14989_0883_1_lg.jpg | Gesehen am 14.08.2019

Abbildung 3: Screenshot aus Terminator 2 – Judgement Day (1991); Quelle: https://terminator.fandom.com/wiki/Minigun | Gesehen am 14.08.2019

This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Christoph Ernst & Thomas Bächle

Sign up for HIIG's Monthly Digest

and receive our latest blog articles.

Our Journals

Future Events

Further articles

Empirische Daten und KI | HIIG

There isn’t enough empirical data on the impact of AI

Many articles in peer-reviewed journals that investigate the application of artificial intelligence to knowledge work refer to data and insights from blogs, newspapers, or data collected by consulting firms. This…

Fair Work Foundation | HIIG

The price of cheap labour

Digital global markets connect supply and demand in a historically unique way. At the same time, the distribution of customers and employees across nations and continents dramatically changed. The age…

Privatheit | HIIG Science Blog

Endangered privacy in the digital society

In his new book, Armin Nassehi makes the attempt to substatiate digital technology in the structure of modern society itself. He develops the thesis that certain social regularities, structures and…

Leave a Comment