Zum Inhalt springen
169 HD – AI is neutral (1)
27 April 2021| doi: 10.5281/zenodo.4719522

Mythos: KI wird uns alle umbringen!

KI wird uns nicht in Form eines zeitreisenden humanoiden Roboters mit österreichischem Akzent umbringen. Aber: KI wird in verschiedenen militärischen Anwendungen eingesetzt – sie unterstützt neue Konzepte der Führung und ermöglicht autonome Zielfunktionen. Dies beschleunigt die Kriegsführung und untergräbt die menschliche Kontrolle, was rechtliche und ethische Herausforderungen mit sich bringt.

Mythos

KI wird uns alle umbringen! Killerroboter streben nach der Weltherrschaft! Und erfinden das Zeitreisen! Während dieses Science Fiction Terminator Bild reichlich übertrieben ist, wird KI tatsächlich ein wichtiger Bestandteil militärischer Entscheidungsprozesse. Damit unterstützt KI auch das Töten von Menschen.

Militärische KI-Anwendungen ermöglichen neue Operationskonzepte und autonome Funktionen bei der Zielauswahl und -bekämpfung. Dies beschleunigt die Kriegsführung und kann militärische Entscheidungen verbessern – es führt aber auch zu einer Abnahme menschlicher Kontrolle.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR
Sauer, F. (2020). Stepping back from the brink: Why multilateral regulation of autonomy in weapons systems is difficult, yet imperative and feasible. International Review of the Red Cross102(913), 235–259. Read here.

Dahlmann, A., & Dickow, M. (2019). Preventive regulation of autonomous weapon systems: Need for action by Germany at various levels (Vol. 3/2019). Stiftung Wissenschaft und Politik -SWP- Deutsches Institut für Internationale Politik und Sicherheit. Read here.

ZUSATZLITERATUR
Paul Scharre (2018), Army of None. Read here.

IPRAW. (2017, November). International Panel on the Regulation of Autonomous WeaponsRead here.

Schörnig, N. (2019). Paul Scharre: Army of None: Autonomous Weapons and the Future of War, London: W.W. Norton 2018. SIRIUS – Zeitschrift Für Strategische Analysen3(1), 107–108. Read here.
UNICORN IN THE FIELD
The International Panel on the Regulation of Autonomous Weapons (iPRAW) is an international, interdisciplinary, and independent network of researchers working on the issue of  lethal autonomous weapons systems (LAWS). It aims at supporting the current debate within the UN CCW with scientifically grounded information and recommendations.

Über die Autorin

Anja Dahlmann

Stiftung Wissenschaft und Politik – German Institute for International and Security Affairs

Anja Dahlmann hat ihren Master in Politikwissenschaft an der Universität Göttingen abgeschlossen. Sie arbeitet als Forscherin beim Think Tank Stiftung Wissenschaft und Politik mit Sitz in Berlin und leitet das International Panel on the Regulation of Autonomous Weapons (iPRAW). Ihr Schwerpunkt sind neu entstehende Technologien und Abrüstung, insbesondere im Kontext sogenannter tödlicher, autonomer Waffensysteme.

@adahlma


Why, AI?

Dieser Beitrag ist Teil unseres Projekts “Why, AI?”. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Das Bild zeigt eine Wand mit vielen Uhren, die alle eine andere Uhrzeit zeigen. Das symbolisiert die paradoxen Effekte von generativer KI am Arbeitsplatz auf die Produktivität.

Zwischen Zeitersparnis und Zusatzaufwand: Generative KI in der Arbeitswelt

Generative KI am Arbeitsplatz steigert die Produktivität, doch die Erfahrungen sind gemischt. Dieser Beitrag beleuchtet die paradoxen Effekte von Chatbots.

Das Bild zeigt sieben gelbe Köpfe von Lego-Figuren mit unterschiedlichen Emotionen. Das symbolisiert die Gefühle, die Lehrende an Hochschulen als innere Widerstände gegen veränderung durchleben.

Widerstände gegen Veränderung: Herausforderungen und Chancen in der digitalen Hochschullehre

Widerstände gegen Veränderung an Hochschulen sind unvermeidlich. Doch richtig verstanden, können sie helfen, den digitalen Wandel konstruktiv zu gestalten.

Das Foto zeigt einen jungen Löwen, symbolisch für unseren KI-unterstützten Textvereinfacher Simba, der von der Forschungsgruppe Public Interest AI entwickelt wurde.

Von der Theorie zur Praxis und zurück: Eine Reise durch Public Interest AI

In diesem Blogbeitrag reflektieren wir unsere anfänglichen Überlegungen zur Public Interest AI anhand der Erfahrungen bei der Entwicklung von Simba.