Unsere vernetzte Welt verstehen
Mythos: KI wird uns alle umbringen!
KI wird uns nicht in Form eines zeitreisenden humanoiden Roboters mit österreichischem Akzent umbringen. Aber: KI wird in verschiedenen militärischen Anwendungen eingesetzt – sie unterstützt neue Konzepte der Führung und ermöglicht autonome Zielfunktionen. Dies beschleunigt die Kriegsführung und untergräbt die menschliche Kontrolle, was rechtliche und ethische Herausforderungen mit sich bringt.
Mythos
KI wird uns alle umbringen! Killerroboter streben nach der Weltherrschaft! Und erfinden das Zeitreisen! Während dieses Science Fiction Terminator Bild reichlich übertrieben ist, wird KI tatsächlich ein wichtiger Bestandteil militärischer Entscheidungsprozesse. Damit unterstützt KI auch das Töten von Menschen.
Militärische KI-Anwendungen ermöglichen neue Operationskonzepte und autonome Funktionen bei der Zielauswahl und -bekämpfung. Dies beschleunigt die Kriegsführung und kann militärische Entscheidungen verbessern – es führt aber auch zu einer Abnahme menschlicher Kontrolle.
Vortrag ansehen
Material
Folien der Präsentation | |
SCHLÜSSELLITERATUR Sauer, F. (2020). Stepping back from the brink: Why multilateral regulation of autonomy in weapons systems is difficult, yet imperative and feasible. International Review of the Red Cross, 102(913), 235–259. Read here. Dahlmann, A., & Dickow, M. (2019). Preventive regulation of autonomous weapon systems: Need for action by Germany at various levels (Vol. 3/2019). Stiftung Wissenschaft und Politik -SWP- Deutsches Institut für Internationale Politik und Sicherheit. Read here. ZUSATZLITERATUR Paul Scharre (2018), Army of None. Read here. IPRAW. (2017, November). International Panel on the Regulation of Autonomous Weapons. Read here. Schörnig, N. (2019). Paul Scharre: Army of None: Autonomous Weapons and the Future of War, London: W.W. Norton 2018. SIRIUS – Zeitschrift Für Strategische Analysen, 3(1), 107–108. Read here. | |
UNICORN IN THE FIELD The International Panel on the Regulation of Autonomous Weapons (iPRAW) is an international, interdisciplinary, and independent network of researchers working on the issue of lethal autonomous weapons systems (LAWS). It aims at supporting the current debate within the UN CCW with scientifically grounded information and recommendations. |
Über die Autorin
Anja Dahlmann
Stiftung Wissenschaft und Politik – German Institute for International and Security Affairs
Anja Dahlmann hat ihren Master in Politikwissenschaft an der Universität Göttingen abgeschlossen. Sie arbeitet als Forscherin beim Think Tank Stiftung Wissenschaft und Politik mit Sitz in Berlin und leitet das International Panel on the Regulation of Autonomous Weapons (iPRAW). Ihr Schwerpunkt sind neu entstehende Technologien und Abrüstung, insbesondere im Kontext sogenannter tödlicher, autonomer Waffensysteme.
Why, AI?
Dieser Beitrag ist Teil unseres Projekts “Why, AI?”. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.
Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de
Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Künstliche Intelligenz und Gesellschaft
Zwischen Zeitersparnis und Zusatzaufwand: Generative KI in der Arbeitswelt
Generative KI am Arbeitsplatz steigert die Produktivität, doch die Erfahrungen sind gemischt. Dieser Beitrag beleuchtet die paradoxen Effekte von Chatbots.
Widerstände gegen Veränderung: Herausforderungen und Chancen in der digitalen Hochschullehre
Widerstände gegen Veränderung an Hochschulen sind unvermeidlich. Doch richtig verstanden, können sie helfen, den digitalen Wandel konstruktiv zu gestalten.
Von der Theorie zur Praxis und zurück: Eine Reise durch Public Interest AI
In diesem Blogbeitrag reflektieren wir unsere anfänglichen Überlegungen zur Public Interest AI anhand der Erfahrungen bei der Entwicklung von Simba.