Unsere vernetzte Welt verstehen

Von wegen „Todesmaschine”: Warum KI eine Verantwortungsfrage ist, keine Apokalypse
Ende Februar zeichnet Der Spiegel in seiner Titelgeschichte (10/2026) ein dramatisches Bild des KI-Zeitalters: Ähnlich wie die Erfindung der Atombombe könnte Künstliche Intelligenz die Logik von Krieg und Abschreckung grundlegend verändern und ein globales technologisches Wettrüsten auslösen. KI erscheint dabei als potenzielle „Todesmaschine“. Als eine Technologie, die militärische Entscheidungen beschleunigt, Cyberangriffe eigenständig koordiniert und ihren Schöpfer*innen eines Tages überlegen werden könnte. Am Ende steht die Sorge, dass Maschinen nicht mehr nur Werkzeuge bleiben, sondern zu einer existenziellen Bedrohung für die Menschheit werden könnten. Doch ist das aus wissenschaftlicher Sicht so zu unterschreiben? Dieser Blogartikel setzt der Erzählung eine andere Lesart entgegen. Er fragt, was hinter der Metapher der „Todesmaschine“ steckt, warum der Artikel so viele technisch verschiedene KI-Systeme in einen Topf wirft und welche Debatten dabei unsichtbar bleiben. Geht es wirklich um autonome, tödliche KI — oder um die Frage, wie wir als Gesellschaft deren Nutzung verantwortungsvoll gestalten?
Es gehört zu den ältesten Reflexen des Menschen, seine Werkzeuge zu fürchten, sobald sie mächtig genug werden. Als im 19. Jahrhundert die ersten mechanischen Webstühle eingeführt wurden, zerstörten Arbeiter*innen die Maschinen aus Angst vor dem Verlust ihrer Arbeit. Als etwa hundert Jahre später die Atombombe entwickelt wurde, fürchtete man das Ende der Zivilisation. Und heute ist eine neue Figur aufgetaucht, da KI-Systeme in vielen Bereichen unserer Gesellschaft eingesetzt werden: die „Tödliche Intelligenz“, wie sie auf dem Titelblatt der zehnten Ausgabe des Spiegel 2026 prangert (Book, Pfister & Rosenbach, 2026).
Ein Cover, das beim genaueren Hinsehen viele problematische Annahmen vermittelt. Zu sehen ist kein reales Foto, sondern ein KI-generiertes Bild: ein humanoider Roboterkopf, halb Mensch, halb Metallschädel, ein Auge blau und fast menschlich, das andere ein glühend roter Sensorpunkt. Das ist keine zufällige Ästhetik. KI wird hier vermenschlicht und zugleich dämonisiert. Der Roboter hat ein Gesicht, er blickt zurück. Denn nur was wie ein Akteur aussieht, kann auch wie ein Akteur gefürchtet werden.
KI als Todesmaschine — ein kulturelles Muster
Der zum Titelblatt gehörende Artikel im Magazin beginnt mit einem Horrorfilm und endet mit einer Warnung vor der Apokalypse. Dabei beschreiben die Autoren durchaus konkrete, verschiedene Systeme: Large Language Models wie Claude, die für Cyberangriffe missbraucht werden, KI-gesteuerte Drohnen über der Ukraine, autonome Kampfjets, chinesische Roboter. Das ist zunächst legitim. Diese Systeme existieren, ihr Einsatz ist real und diskussionswürdig. Das Problem liegt nicht in den Einzelbeispielen, sondern in der Erzählklammer, die der Artikel darum legt. Die Autoren schreiben von der „Todesmaschine” und nutzen folgenden Untertitel: „Der Aufstieg von künstlicher Intelligenz ist so gefährlich wie die Erfindung der Atombombe. KI-Pioniere warnen: Die Menschheit muss die Maschinen einhegen, so lange sie das noch kann” (Book, Pfister & Rosenbach, 2026).
Diese Ästhetik ist kein Zufall, sondern Teil eines tief verwurzelten kulturellen Musters: Die Vorstellung einer Intelligenz, die der menschlichen Kontrolle entgleitet, ist längst zu einem festen Topos in Filmen, politischen Reden und unserer kollektiven Vorstellungswelt geworden. Sie formt die öffentliche Wahrnehmung realer Technologien nachhaltig mit (Bareis & Bächle, 2025). Es ist der Computer, der den Krieg beginnt. Es ist der Algorithmus, der die Kontrolle übernimmt. Es ist das System, das sich gegen seine menschlichen Schöpfer*innen richtet. Diese Figur ist wirkungsvoll, auch im journalistischen Kontext. Aber sie ist analytisch irreführend. Nicht, weil KI-Systeme harmlos wären. Sondern weil Künstliche Intelligenz kein singulärer, vom Menschen losgelöster Akteur ist und weil nicht eine Todesgefahr das Hauptproblem ist, sondern die vielen schleichenden Gefahren. KI ist zugleich gefährlicher und weniger gefährlich, als das Bild der Todesmaschine suggeriert.
Die eine KI gibt es nicht
Der Artikel vermischt heterogene Technologien und KI-Systeme mit dem Narrativ einer Artificial General Intelligence. Das ist eine theoretische Form von KI, die Wissen verstehen, lernen und auf jede intellektuelle Aufgabe anwenden kann — auf einem Niveau, das menschlicher Intelligenz entspricht oder übertrifft. Diese Art von KI existiert bisher nicht. Ihre Realisierbarkeit ist unter Forschenden umstritten. Dennoch beschwört der Artikel implizit genau dieses Bild, wenn er von KI als existenzieller Bedrohung spricht. Dario Amodei, Chef von Anthropic, wird mit einer „25-prozentigen Wahrscheinlichkeit“ zitiert, dass KI die Menschheit auslöscht. KI-Pionier Geoffrey Hinton nennt „10 bis 20 Prozent“ (Book, Pfister & Rosenbach, 2026). Eingeordnet werden diese Zahlen nicht. Zur Methode dahinter lesen wir nichts..
Hinter diesem Narrativ bleibt eine mindestens ebenso wichtige Geschichte unsichtbar. Automatisierte Entscheidungssysteme sind längst Teil unseres Alltags, jenseits des Militärs. Gemeint sind Programme oder Verfahren, die Daten und statistische Modelle nutzen, um Entscheidungsprozesse zu unterstützen oder zu strukturieren – manchmal mit menschlicher Beteiligung, manchmal ohne. Wir setzen sie etwa in der Kreditvergabe, bei der Moderation von Inhalten in den Sozialen Medien, in Bewerbungsverfahren und in der staatlichen Leistungsvergabe ein (Crootof et al., 2023). Unsere Finanzmärkte, Kommunikationsplattformen, Verkehrsnetze, Energiesysteme arbeiten alle mit maschineller Verarbeitung von Informationen in einem Umfang und einer Geschwindigkeit, die die kognitive Fähigkeiten eines einzelnen Menschen weit übersteigt. Jede Suchanfrage beruht auf KI-Systemen, jeder Route, die wir suchen, wird uns (auch) mittels KI-unterstützten Systemen präsentiert, jeder Spam-Filter unserer E-Mail-Programme lernt selbst, besser zu werden.
Mehr als Effizienz
Diese Systeme sind keine Superintelligenzen. Sie sind oft schmal und spezifisch. Trotzdem setzen wir sie in Entscheidungen ein, die uns Menschen direkt betreffen. Aber ihre Realität liegt selten in den Extremen zwischen tödlicher Militärtechnik und wundersamer Super-KI. Viel häufiger arbeiten Menschen und Maschinen in unspektakulären, aber sehr wichtigen Entscheidungsschleifen zusammen.
So nutzen Banken statistische Modelle, die aus Hunderttausenden früherer Kreditentscheidungen Zusammenhänge ableiten. Anhand von Kriterien wie Einkommen, Beschäftigungsstabilität oder bisherigem Zahlungsverhalten bewerten sie die Wahrscheinlichkeit, dass eine Person einen Kredit zurückzahlen kann. Dabei können sie Zusammenhänge zwischen vielen Variablen gleichzeitig sichtbar machen, die menschliche Analyst*innen im Einzelfall kaum überblicken. Doch das Ergebnis ist keind automatische Entscheidung. Es ist eine Grundlage. Kreditsachbearbeiter*innen prüfen diese anschließend genauer. Hat ein*e junge*r Selbstständige*r noch keine lange Kreditgeschichte, obwohl sein*ihr Geschäftsmodell solide ist? Hat ein*e Kund*in gerade einen kurzfristigen finanziellen Engpass, der statistisch negativ wirkt, aber gut erklärbar ist?
Der Mensch bleibt in der Entscheidungsschleife. Das ist keine Schwäche des Systems, sondern seine Gestaltungsentscheidung. Maschinen liefern Konsistenz: Sie wenden dieselben Kriterien auf jeden Fall an, unabhängig von Tagesform oder impliziten Annahmen. Menschen bringen Kontext und Urteilsvermögen ein. Aber daraus lässt sich keine gute „Story“ machen.
Je erfolgreicher diese Systeme im Alltag eingesetzt werden, desto unsichtbarer werden sie. Wir bemerken sie meistens erst, wenn etwas schiefgeht. Und in diesem Moment erscheint es verlockend, ihnen eine eigene Handlungsfähigkeit zuzuschreiben. Doch diese Zuschreibung ist eine Projektion.
Maschinen handeln nicht einfach so: Was steckt hinter der Todesmaschine?
Die vielleicht wichtigste Erkenntnis der Technikforschung ist zugleich eine der unbequemsten: Maschinen handeln nicht einfach so. Sie werden eingesetzt. KI-Systeme haben keine Absichten und haben keine Interessen. Was sie tun, ist strukturell anders als menschliches Denken, nicht einfach eine schnellere Version davon. Menschen treffen Entscheidungen auf Basis von Erfahrung, Kontext und Werten. Menschen haben Handlungsfreiheit, Maschinen nicht. KI-Systeme lernen aus enormen Datenmengen, erkennen statistische Zusammenhänge und leiten daraus Vorhersagen ab. Sie können Muster in Millionen von Fällen gleichzeitig erkennen und Szenarien simulieren, die menschliche kognitive Kapazitäten übersteigen. Doch die vermeintliche Intelligenz, die wir in diesen Systemen wahrnehmen, ist abgeleitet — aus menschlichen Daten, menschlichen Entscheidungen und menschlichen Zielen. Eine Todesdrohne fliegt nicht einfach so. Der Killerroboter hat eine Vorgeschichte, und die ist menschlich.
Wer glaubt, Maschinen seien autonome Entscheider und schlechte darüber hinaus, dämonisiert sie als „Todesmaschinen“ (Book, Pfister & Rosenbach, 2026). Wer versteht, dass sie Werkzeuge in institutionellen Entscheidungsarchitekturen sind, wird versuchen, genau diese Architekturen verantwortungsvoll zu gestalten. Der Unterschied zwischen beiden Perspektiven ist der zwischen Furcht und funktionierender Governance.
Autonome Waffensysteme: eine Debatte, die der Artikel verschweigt
Besonders deutlich wird diese Leerstelle beim Thema, das den Spiegel-Artikel am stärksten prägt: Drohnen, autonome Kampfjets und KI-gestützte Kriegsführung. Der Artikel beschreibt sie eindrücklich, verwendet aber nie den Begriff, unter dem diese Systeme in der internationalen Politik seit Jahren verhandelt werden. Gemeint sind autonome Waffensysteme, auf Englisch autonomous weapon systems (AWS) oder lethal autonomous weapons systems (LAWS) (Bareis & Bächle, 2025).
Das ist kein akademisches Detail. Unter diesem Begriff existiert bereits seit Jahren ein internationaler Governance-Prozess unter UN-Ägide. Im Rahmen der UN-Waffenkonvention (CCW) diskutieren Staaten seit 2014 verbindliche Regeln für Waffensysteme, die Ziele ohne menschliche Entscheidung im Einzelfall auswählen und bekämpfen können. Im Dezember 2025 stimmten 156 Staaten einer UN-Resolution zu, die zum besonnenen Umgang mit solchen Systemen aufruft (UN General Assembly, 2025). Eine Entwicklung, die der Artikel zwar kurz erwähnt, aber nicht einordnet. Das Internationale Komitee vom Roten Kreuz, das auch für die Weiterentwicklung des humanitären Völkerrechts (des Rechts im Krieg) zuständig ist, lehnt die Vertretbarkeit von autonomen Waffensystemen klar ab (ICRC, 2024).
Die Frage ist nicht, ob KI im Militär eingesetzt wird. Sie wird es. Ein Blick auf aktuelle Konflikte zeigt, dass die Realität dabei aber weit nüchterner ist als das Narrativ der Todesmaschine. KI kommt nicht als autonomer Killer zum Einsatz, sondern vor allem zur Beschleunigung von Entscheidungsprozessen, zur Auswertung von Geheimdienstdaten und zur Planung von Angriffen (Zellinger, 2026). Entscheidend ist deshalb, unter welchen Bedingungen menschliche Kontrolle strukturell verankert bleibt. Das ist keine Science-Fiction, sondern Gegenstand laufender diplomatischer Verhandlungen. Die Rede von der Todesmaschine lenkt davon ab, statt produktivbeizutragen.
Die schleichenden Gefahren
Die eigentliche Transformation findet deswegen nicht nur auf Schlachtfeldern statt. Und sie besteht nicht — wie die Spiegel-Autoren zugespitzt warnen — darin, dass KI „den menschlichen Faktor ausschaltet“ (Book, Pfister & Rosenbach, 2026). Sie findet überall dort statt, wo KI-Systeme heute eingesetzt werden. In der Arbeitswelt vergeben Algorithmen Schichtpläne – nach Kriterien, die Beschäftigte oft nicht kennen. Und im Alltag bestimmen automatisierte Systeme, welche Nachrichten wir als Erstes sehen, welche Produkte uns angezeigt werden und welche Musik als Nächstes spielt.
Ob diese Systeme Entscheidungen fairer machen, hängt davon ab, mit welchen Daten sie trainiert wurden. Denn technische Systeme, die aus historisch getroffenen Entscheidungen lernen, können gesellschaftliche Vorurteile ebenso gut reproduzieren (Mosene & Leifeld, 2025). Im Umkehrschluss bedeutet das: Die Daten, auf denen KI-Systeme basieren, bilden die Welt nicht neutral ab, sondern spiegeln gesellschaftliche Machtverhältnisse wider (Mosene, 2024). Zudem entwickeln manche Systeme dabei Muster, die selbst ihre Entwickler*innen nicht vollständig nachvollziehen können. Wir sprechen dann von einer Black Box. Diese vielfach dokumentierten Probleme wie algorithmische Diskriminierung, intransparente Entscheidungsfindung oder schlecht kuratierte Trainingsdaten verschwinden im Spiegel-Artikel hinter der Faszination für die Doomsday-Maschine.
Die Architektur der Verantwortung
Die entscheidende Frage lautet nicht, ob wir KI einsetzen. Sie lautet: Wie gestalten wir die Zusammenarbeit zwischen Menschen und Maschinen verantwortungsvoll? Genau das untersucht das Forschungsprojekt Human in the Loop? am Alexander von Humboldt-Institut für Internet und Gesellschaft.
Eine wichtige Erkenntnis daraus: In jedem automatisierten Entscheidungsprozess wirken viele Menschen mit — Entwickler*innen, die Modelle trainieren, Sachbearbeiter*innen, die Ergebnisse prüfen, Manager*innen, die Systeme einführen, und Nutzer*innen, die mit ihnen arbeiten. Das ist zunächst eine Feststellung. Die eigentliche Frage ist, ob diese Menschen in der Lage sind, verantwortungsvoll, kontextsensibel und verlässlich auf diese Prozesse einzuwirken. Mehr Menschen in Entscheidungsschleifen einzubinden löst das Problem nicht. Es kommt darauf an, dass die richtigen Menschen an den richtigen Stellen die richtigen Fragen stellen können. Das setzt Transparenz über Systemgrenzen voraus, klare Zuständigkeiten und institutionelle Strukturen, die menschliches Urteil nicht nur formal vorsehen, sondern tatsächlich ermöglichen. Das zeigen Fallstudien zurKreditvergabe (Züger et al., 2025) und zur Inhaltsmoderation in sozialen Medien (Kettemann et al., 2025).
Mithin: Automatisierte Entscheidungen sind keine rein technischen, sondern genuin soziotechnische Prozesse. Ihre Qualität und Legitimität hängen davon ab, wie eng menschliche Urteilsfähigkeit, institutionelle Verantwortung und technische Entscheidungslogik miteinander verflochten sind. Die vielleicht wichtigste Eigenschaft intelligenter technischer Systeme ist nicht ihre Fähigkeit zu handeln. Es ist ihre Fähigkeit, es nicht zu tun. Die besten automatisierten Systeme sind demütige Systeme. Sie sind so gebaut, dass sie erkennen, wann ihre Datenlage zu dünn ist, wann ein Fall zu komplex ist, wann ein Mensch gefragt werden muss — und dann innehalten, statt trotzdem zu handeln.
Verantwortung lässt sich nicht automatisieren
Die eigentliche Gefahr besteht nicht in der Existenz von KI-Systemen. Sie besteht darin, dass wir ihre Grenzen verkennen und ihre Einbettung in gesellschaftliche Strukturen falsch gestalten. Ein Algorithmus, der Kreditwürdigkeit bewertet, diskriminiert nicht von sich aus. Aber er kann systemische Diskriminierung systematisch reproduzieren, wenn die Trainingsdaten verzerrt sind und niemand die Ergebnisse kritisch hinterfragt.Ein Predictive-Policing-System – also Software, die auf Basis von Daten vorhersagt, wo Straftaten wahrscheinlich passieren – entscheidet nicht, wen die Polizei kontrolliert, aber dadurch dass Vorhersagen getorffen werden und Polizeiressourcen entsprechen eingesetzt werden, steigt die Wahrscheinlichkeit genau dort, wo kontrolliert wird, auch Straftaten zu finden. Trägt die Maschine diese Verantwortung – oder die Menschen in den Entscheidungsloops? Die Verantwortung verschiebt sich, sie verschwindet nicht.
Die Vorstellung der Todesmaschine lenkt von genau dieser Realität ab. Sie suggeriert, dass die Gefahr in der Technologie selbst liegt, statt in der gesellschaftlichen Organisation des Umgangs damit. Künstliche Intelligenz ist kein fremdes Wesen. Sie ist ein Produkt und Teil der menschlichen Gesellschaft. Sie spiegelt unsere Ziele, Prioritäten und Werte wider. Die Frage ist nicht, ob Maschinen fähiger werden. Sie werden es. Aber fähigere Maschinen brauchen bessere institutionelle Architekturen, nicht weniger menschliche Kontrolle. Die Zukunft wird nicht von Maschinen entschieden. Sie wird von Menschen entschieden, die mit Maschinen entscheiden.
Referenzen
Bareis, J., & Bächle, T. C. (2025). The realities of autonomous weapons: Hedging a hybrid space of fact and fiction. In T. C. Bächle & J. Bareis (Eds.), The realities of autonomous weapons (pp. 1–32). Bristol University Press. https://bristoluniversitypressdigital.com/edcollchap-oa/book/9781529237191/ch001.xml?tab_body=pdf
Book, S., Pfister, R., & Rosenbach, M. (2026, 3. März). Die Todesmaschine: Gefahren der künstlichen Intelligenz. Der Spiegel, 10/2026. https://www.spiegel.de/ausland/kuenstliche-intelligenz-regulierung-dringend-noetig-um-toedliche-risiken-zu-vermeiden-a-c0a9b62d-5872-40ef-a503-8d3213d21aac?context=issue
Crootof, R., Kaminski, M. E., & Price, W. N., II. (2023). Humans in the loop.Vanderbilt Law Review, 76(2), 429. https://scholarship.law.vanderbilt.edu/vlr/vol76/iss2/2
International Committee of the Red Cross. (2024). Building a responsible humanitarian approach: The ICRC’s policy on artificial intelligence. https://www.icrc.org/en/publication/building-responsible-humanitarian-approach-icrcs-policy-artificial-intelligence
Kettemann, M. C., Mosene, K., Stenzel, M., Mahlow, P., Pothmann, D. & Spitz, S. (2025). Code of Conduct on Human-Machine Decision-Making in Content Moderation. Alexander von Humboldt Institute for Internet and Society. https://doi.org/10.5281/zenodo.17650987
Mosene, K., & Leifeld, J. (2025). Identifying bias, taking responsibility: Critical perspectives on AI and data quality in higher education. Digital Society Blog. https://doi.org/10.5281/zenodo.17805277
Mosene, K. (2024). Ein Schritt vor, zwei zurück: Warum Künstliche Intelligenz derzeit vor allem die Vergangenheit vorhersagt. Digital society blog. https://www.hiig.de/publication/ein-schritt-vor-zwei-zurueck-warum-kuenstliche-intelligenz-derzeit-vor-allem-die-vergangenheit-vorhersagt/
United Nations General Assembly. (2025). Lethal autonomous weapons systems (Resolution A/RES/80/57). https://undocs.org/A/RES/80/57
Zellinger, P. (2026, 5. März). Schneller, tödlicher: Wie Künstliche Intelligenz die „Kill Chain“ im Krieg verkürzt. Der Standard. https://www.derstandard.at/story/3000000310967/wie-kuenstliche-intelligenz-die-kill-chain-im-krieg-verkuerzt?ref=nl
Züger, T., Mahlow, P., Pothmann, D., Mosene, K., Burmeister, F., Kettemann, M., & Schulz, W. (2025). Crediting humans: A systematic assessment of influencing factors for human-in-the-loop figurations in consumer credit lending decisions. FAccT ’25: Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency, 1281–1292. https://doi.org/10.1145/3715275.3732086
Dieser Beitrag spiegelt die Meinung der Autor*innen und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Themen im Fokus
Wenn Bots zurückschlagen: KI-Agenten, Verleumdung und die Konstruktion digitaler Identität
Der Fall Shambaugh zeigt, wie ein KI-Agent den Ruf einer Person schädigen kann, und wirft damit neue rechtliche Fragen auf.
Der Human in the Loop bei der automatisierten Kreditvergabe – Menschliche Expertise für größere Fairness
Wie fair sind automatisierte Kreditentscheidungen? Wann ist menschliche Expertise unverzichtbar?
Gründen mit Wirkung: Für digitale Unternehmer*innen, die Gesellschaft positiv gestalten wollen
Impact Entrepreneurship braucht mehr als Technologie. Wie entwickeln wir digitale Lösungen mit Wirkung?




