Zum Inhalt springen
169 HD – AI is neutral (1)
27 April 2021| doi: 10.5281/zenodo.4719522

Mythos: KI wird uns alle umbringen!

KI wird uns nicht in Form eines zeitreisenden humanoiden Roboters mit österreichischem Akzent umbringen. Aber: KI wird in verschiedenen militärischen Anwendungen eingesetzt – sie unterstützt neue Konzepte der Führung und ermöglicht autonome Zielfunktionen. Dies beschleunigt die Kriegsführung und untergräbt die menschliche Kontrolle, was rechtliche und ethische Herausforderungen mit sich bringt.

Mythos

KI wird uns alle umbringen! Killerroboter streben nach der Weltherrschaft! Und erfinden das Zeitreisen! Während dieses Science Fiction Terminator Bild reichlich übertrieben ist, wird KI tatsächlich ein wichtiger Bestandteil militärischer Entscheidungsprozesse. Damit unterstützt KI auch das Töten von Menschen.

Militärische KI-Anwendungen ermöglichen neue Operationskonzepte und autonome Funktionen bei der Zielauswahl und -bekämpfung. Dies beschleunigt die Kriegsführung und kann militärische Entscheidungen verbessern – es führt aber auch zu einer Abnahme menschlicher Kontrolle.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR
Sauer, F. (2020). Stepping back from the brink: Why multilateral regulation of autonomy in weapons systems is difficult, yet imperative and feasible. International Review of the Red Cross102(913), 235–259. Read here.

Dahlmann, A., & Dickow, M. (2019). Preventive regulation of autonomous weapon systems: Need for action by Germany at various levels (Vol. 3/2019). Stiftung Wissenschaft und Politik -SWP- Deutsches Institut für Internationale Politik und Sicherheit. Read here.

ZUSATZLITERATUR
Paul Scharre (2018), Army of None. Read here.

IPRAW. (2017, November). International Panel on the Regulation of Autonomous WeaponsRead here.

Schörnig, N. (2019). Paul Scharre: Army of None: Autonomous Weapons and the Future of War, London: W.W. Norton 2018. SIRIUS – Zeitschrift Für Strategische Analysen3(1), 107–108. Read here.
UNICORN IN THE FIELD
The International Panel on the Regulation of Autonomous Weapons (iPRAW) is an international, interdisciplinary, and independent network of researchers working on the issue of  lethal autonomous weapons systems (LAWS). It aims at supporting the current debate within the UN CCW with scientifically grounded information and recommendations.

Über die Autorin

Anja Dahlmann

Stiftung Wissenschaft und Politik – German Institute for International and Security Affairs

Anja Dahlmann hat ihren Master in Politikwissenschaft an der Universität Göttingen abgeschlossen. Sie arbeitet als Forscherin beim Think Tank Stiftung Wissenschaft und Politik mit Sitz in Berlin und leitet das International Panel on the Regulation of Autonomous Weapons (iPRAW). Ihr Schwerpunkt sind neu entstehende Technologien und Abrüstung, insbesondere im Kontext sogenannter tödlicher, autonomer Waffensysteme.

@adahlma


Why, AI?

Dieser Beitrag ist Teil unseres Projekts “Why, AI?”. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Aktuelle HIIG-Aktivitäten entdecken

Forschungsthemen im Fokus

Das HIIG beschäftigt sich mit spannenden Themen. Erfahren Sie mehr über unsere interdisziplinäre Pionierarbeit im öffentlichen Diskurs.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Weitere Artikel

Eine Hand hält eine digitale Karte auf einem Smartphone. Dies repräsentiert GIS-Technologie und Geodaten.

Wege durch das Großstadtlabyrinth: GIS-Technologie und die Grenzen zwischen digitaler und physischer Infrastruktur

Mit der Entwicklung von GIS-Technologie stellt sich die Frage, ob digitale Karten wie physische öffentliche Infrastrukturen behandelt werden sollten.

Der Werkzeugkasten "Making Sense of the Future" liegt auf dem Tisch und symbolisiert digitale Zukünfte im Unterricht.

Making Sense of the Future: Neue Denksportaufgaben für digitale Zukünfte im Unterricht

"Making Sense of the Future" ist ein Werkzeugkasten, der Zukunftsforschung und Kreativität kombiniert, um digitale Zukünfte neu zu gestalten.

Generic visualizations generated by the author using Stable Diffusion AI

Liebling, wir müssen über die Zukunft sprechen

Können Zukunftsstudien den Status quo jenseits der akademischen Welt in Frage stellen und den öffentlichen Dialog als fantasievollen Raum für kollektive Unternehmungen nutzbar machen?