DIGITAL SOCIETY BLOG

Wissen über unsere vernetzte Welt

DIGITAL SOCIETY BLOG

Wissen über unsere vernetzte Welt

LAWS | HIIG Science Blog

Autonome Waffen – Realität oder Imagination?

03 September 2019

Wie autonom sind autonome Waffen? Wie real sind sie bereits? Und welchen Anteil haben Fiktionen wie der Terminator daran, wie wir über diese Technik denken? Diese Fragen standen im Zentrum der HIIG-Veranstaltung Autonome Waffensysteme – Realitäten und Imaginationen zukünftiger Kriegführung. Christoph Ernst (Universität Bonn) und HIIG-Forscher Thomas Christian Bächle fassen zusammen, was wir aus der Betrachtung dieser Waffensysteme über technische Autonomie lernen können.


Drohnen sind mittlerweile zum Sinnbild einer Entwicklung geworden, die Militär, Politik, Industrie und die Zivilgesellschaft in Atem hält: die Autonomisierung von Waffensystemen. Hinter diesem sperrigen Begriff verbirgt sich das Vorhaben, Waffen mit Fähigkeiten zu einer selbstständigen Missionserfüllung auszustatten. In der Versicherung der Militärs, dass Menschen jederzeit die Kontrolle über diese autonom genannten Waffen behalten, liegt ein deutlicher Widerspruch: Diese Systeme können sich nicht nur selbstständig orientieren, sondern besitzen sehr wohl auch die Funktion, von menschlicher Entscheidungsfähigkeit unabhängige militärische Aktionen durchzuführen, beispielsweise den Abschuss eines sich nähernden Flugkörpers herbeizuführen. Prinzipiell sind sie damit in bestimmten Kontexten dazu in der Lage, Menschen zu verletzen und zu töten, weshalb den als „AWS“ abgekürzten „Autonomen Waffensystemen“ oft ein L (für engl. lethal; LAWS) als Attribut für ihre todbringenden Funktionen vorangestellt wird. Diese von auf künstlicher Intelligenz basierten Computersystemen herbeigeführten Entscheidungen ziehen potenziell gravierende Konsequenzen nach sich. Wie folgenschwer sie in Kampfhandlungen sein dürfen, wird kontrovers debattiert und wirft zugleich eine Vielzahl offener Fragen auf.

Vor diesem Hintergrund erstaunt zunächst, dass es keinen Konsens darüber gibt, wann Waffen überhaupt als autonom zu gelten haben und in welcher Hinsicht sie sich von automatischen Waffen unterscheiden. Seit langem existiert eine kaum mehr überschaubare Anzahl an Waffensystemen mit hohem Automatisierungsgrad. Oft genannte Beispiele sind das amerikanische Phalanx- (siehe Abbildung) oder das deutsche Mantis-System, die zur Nahbereichsverteidigung eingesetzt werden. Diese Systeme haben die Aufgabe, schnell anfliegende Flugkörper durch automatisch ausgelösten Beschuss abzuwehren. Es handelt sich um stationäre Systeme, die vordefinierte Prozesse ausführen. Als autonom wird dagegen ein technisches System bezeichnet, wenn eine menschliche Steuerung nicht erforderlich ist und es sich nach seiner Aktivierung für einen längeren Zeitraum in dynamischen und unstrukturierten Umgebungen bewegen und sich diesen anpassen kann. Die definitorischen Grenzen sind jedoch fließend. Sicher jedoch ist, dass die Autonomie der Waffen mit Autonomie im menschlichen Sinn wenig zu tun hat, mit der vielmehr die Fähigkeit benannt wird, sich selbst Regeln zu geben und damit an Freiheit zu gewinnen.

Doch ganz frei von Bezügen zum menschlichen Begriff von Autonomie ist auch die Expertendiskussion nicht. So heißt es beispielsweise in einem von der chinesischen Delegation in der Gruppe der Regierungsexperten bei der UN-Konvention über bestimmte konventionelle Waffen im April 2018 veröffentlichten Positionspapier: Die Autonomie solcher Systeme sei u. a. als völlige „Abwesenheit menschlicher Intervention“ zu verstehen: Ohne die Möglichkeit sie abzuschalten verfügen diese Waffen gar über eine als „Evolution“ bezeichnete, von Menschen unabhängige Fähigkeit, „autonom zu lernen“. Diese Definitionen stellen ausdrücklich Assoziationen mit menschlicher Autonomie her. Ihre politische Relevanz erhalten sie dabei nicht etwa durch die Forderung nach einer Entwicklung von in einem solchen Sinne autonomen Systeme. Vielmehr hat ein solches Verständnis von Autonomie vermutlich das Ziel, von bereits existierenden Waffensystemen abzulenken, die zwar die Kriterien menschlicher Autonomie keinesfalls erfüllen, aber durchaus selbstständig agieren können.  

Im Zusammenhang mit LAWS oft bemühte Verweise auf Science-Fiction-Szenarien wie die Autonomie des Killerroboters in den Terminator-Filmen prägen kollektive Vorstellungen über autonome Waffen, führen aber scheinbar deutlich in die Irre und werden in Fachdiskursen zurückgewiesen. Doch die Einschätzungen zur Realität des Machbaren werden in der Diskussion um LAWS von fiktiven Spekulationen über denkbare Szenarien viel stärker überlagert, als es in den fachlichen Debatten gewünscht ist oder behauptet wird. Mithilfe des Autonomiebegriffs lassen sich derzeit beide sehr widersprüchlichen Aspekte bündeln: Er bietet einerseits die Möglichkeit, faktisch existierende Waffensysteme zu klassifizieren (technische Autonomie) wie andererseits derzeit rein fiktionale Erwartungen an Waffentechnologie zu markieren (personale, menschliche Autonomie).

So betrachtet erweist sich die Diskussion um LAWS und ihre Regulierung als ein nur kleiner Ausschnitt einer größeren Debatte um technische Autonomie generell: Die Weiterentwicklung von technischer Autonomie in Richtung von Fähigkeiten, die eigentlich als Merkmale menschlicher Autonomie gedeutet werden, wird gegenwärtig als scheinbar unausweichlich wahrgenommen. Auch das besondere Interesse, das letale autonome Waffensysteme derzeit sowohl in Fachkreisen als auch der breiten Öffentlichkeit auf sich ziehen, liegt genau darin begründet – in der zweifelhaften Erwartung intelligenter technischer Systeme, die über Lernfähigkeit, einen Willen und ein Bewusstsein verfügen.

Ein reales Waffensystem – das PHALANX-Nahbereichsverteidigungssystem (links, Abbildung 1) – lässt sich imaginativ schrittweise in einen Terminator (Mitte, den Terminator T-1, Abbildung 2; rechts, den T-800, Screenshot aus James Camerons Terminator 2; USA 1991, Abbildung 3) verwandeln. Die Transformation eines Waffensystems, das in den frühen 1980er-Jahren bekannt wurde, wird fiktional mit visuellen Mitteln weitererzählt. Science-Fiction ist maßgeblich daran beteiligt, heutige kulturelle Vorstellungen von LAWS zu prägen. Diese können nur vollständig erfasst werden, wenn man die imaginative Vorwegnahme der technischen Möglichkeiten mit beachtet.

Die Realität von LAWS ist damit von Erwartungen gegenüber dem Möglichen durchsetzt. Ihre gesellschaftlichen, politischen, rechtlichen oder ethischen Bedeutungen müssen als Ausdruck vielgestaltiger, durch Expertendiskurse wie Populärkultur gleichermaßen beeinflusster, sozialer Imaginationsprozesse gewertet werden. Die primäre Aufgabe dieser Imaginationen ist, einer erwarteten Zukunft eine Gestalt zu geben, die sowohl zur Grundlage von Bestrebungen nach ihrer technischen Umsetzung als auch kritischer Debatten werden kann. Es gilt daher neben den Realitäten technischer Funktionalität, also der Faktizität von LAWS, immer auch die Vorstellungen über LAWS zu hinterfragen. Welche rhetorischen Mittel werden genutzt? Welche Ängste angesprochen? Welche Absichten und Zwecke verfolgt?

Nur die Analyse der Imagination erlaubt es, die Realität einer Technologie zu fassen, die noch nicht Wirklichkeit geworden ist.

Die Autoren: PD Dr. Christoph Ernst ist Medienwissenschaftler an der Universität Bonn mit den Forschungsschwerpunkten: Diagrammatik und Informationsvisualisierung, Implizites Wissen und digitale Medien (insb. Interfaces) sowie Medienwandel und Imagination. Dr. Thomas Christian Bächle ist Forschungsprogrammleiter am HIIG. 


Weiterführende Literatur

Altmann, Jürgen/Sauer, Frank (2017): »Autonomous Weapons Systems and Strategic Stability«, in: Survival 59, 5, S. 117-142.

Ernst, Christoph (2019): »Beyond Meaningful Human Control? – Interfaces und die Imagination menschlicher Kontrolle in der zeitgenössischen Diskussion um autonome Waffensysteme (AWS)«, in: Caja Thimm/Thomas Christian Bächle (Hg.): Die Maschine: Freund oder Feind? Mensch und Technologie im digitalen Zeitalter, Wiesbaden: VS Verlag für Sozialwissenschaften, S. 261-299. DOI: 10.1007/978-3-658-22954-2_12

Suchman, Lucy A./Weber, Jutta (2016): »Human-Machine-Autonomies«, in: Nehal Bhuta u. a. (Hg.): Autonomous Weapons Systems. Law, Ethics, Policy, Cambridge & New York, NY: Cambridge Univ. Press, S. 75-102.

Quellenangaben zu den benutzten Abbildungen

Abbildung 1: Phalanx; Quelle: https://en.wikipedia.org/wiki/Phalanx_CIWS#/media/File:Phalanx_CIWS_USS_Jason_Dunham.jpg| Gesehen am 14.08.2019

Abbildung 2: Terminator T-1; Quelle: https://terminator.fandom.com/wiki/File:14989_0883_1_lg.jpg | Gesehen am 14.08.2019

Abbildung 3: Screenshot aus Terminator 2 – Judgement Day (1991); Quelle: https://terminator.fandom.com/wiki/Minigun | Gesehen am 14.08.2019

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Christoph Ernst & Thomas Bächle

Bleiben Sie in Kontakt

und melden Sie sich für unseren monatlichen Newsletter mit den neusten Blogartikeln an.

JOURNALS DES HIIG

Zukünftige Veranstaltungen

Weitere Artikel

Empirische Daten und KI | HIIG

Es gibt nicht genügend empirische Daten über die Auswirkungen von KI

Viele Artikel in Journals, die die Anwendung künstlicher Intelligenz auf die Wissensarbeit untersuchen, beziehen sich auf Daten und Erkenntnisse aus Blogs, Zeitungen oder auf von Beratungsunternehmen gesammelten Daten. Diese Praxis…

Fair Work Foundation | HIIG

Der Preis billiger Arbeit

Digitale globale Märkte verbinden Angebot und Nachfrage auf eine historisch einzigartige Weise. Gleichzeitig hat die Verteilung von Verbraucher*innen und Arbeiter*innen auf Nationen und Kontinente sie entfremdet, da das Zeitalter der…

Privatheit | HIIG Science Blog

Gefährdete Privatheit in der digitalen Gesellschaft

In seinem neuen Buch unternimmt Armin Nassehi den Versuch, die Digitaltechnik in der Struktur der modernen Gesellschaft selbst zu fundieren. Er entwickelt die These, dass bestimmte gesellschaftliche Regelmäßigkeiten, Strukturen und…

Hinterlassen Sie einen Kommentar