Von wegen „Todesmaschine”: Warum KI eine Verantwortungsfrage ist, keine Apokalypse
| Author: | Kettemann, M. C., & Efferenn, F. |
| Published in: | Digital society blog |
| Year: | 2026 |
| Type: | Other publications |
| DOI: | https://doi.org/10.5281/zenodo.19094245 |
Ende Februar zeichnet Der Spiegel in seiner Titelgeschichte (10/2026) ein dramatisches Bild des KI-Zeitalters: Ähnlich wie die Erfindung der Atombombe könnte Künstliche Intelligenz die Logik von Krieg und Abschreckung grundlegend verändern und ein globales technologisches Wettrüsten auslösen. KI erscheint dabei als potenzielle „Todesmaschine“. Als eine Technologie, die militärische Entscheidungen beschleunigt, Cyberangriffe eigenständig koordiniert und ihren Schöpfer*innen eines Tages überlegen werden könnte. Am Ende steht die Sorge, dass Maschinen nicht mehr nur Werkzeuge bleiben, sondern zu einer existenziellen Bedrohung für die Menschheit werden könnten. Doch ist das aus wissenschaftlicher Sicht so zu unterschreiben? Dieser Blogartikel setzt der Erzählung eine andere Lesart entgegen. Er fragt, was hinter der Metapher der „Todesmaschine“ steckt, warum der Artikel so viele technisch verschiedene KI-Systeme in einen Topf wirft und welche Debatten dabei unsichtbar bleiben. Zum Beispiel, dass automatisierte Entscheidungsprozesse bereits heute weit jenseits des Militärs eingesetzt werden: etwa in der Kreditvergabe oder in der Moderation von Inhalten auf digitalen Plattformen. KI-Systeme sind keine Naturgewalt, die von außen auf unsere Gesellschaft hereinbricht. Sie werden von Menschen entwickelt, eingesetzt und verantwortet. Geht es wirklich um autonome, tödliche Super-KI? Oder um die Frage, wie wir als Gesellschaft die Nutzung von KI verantwortungsvoll gestalten?
| Visit publication |

Connected HIIG researchers
Matthias C. Kettemann, Prof. Dr. LL.M. (Harvard)
Frederik Efferenn
- Open Access
