Unsere vernetzte Welt verstehen

Annahmen über Desinformation: Was wir zu wissen glauben und was wir wirklich wissen
‚Desinformation‘ ist zu einem Schlagwort unserer Zeit geworden. Es taucht fast täglich in Schlagzeilen, politischen Reden und Debatten in sozialen Medien auf. Unzählige Wissenschaftler*innen befassen sich mit seinen konzeptionellen Grundlagen und empirischen Erscheinungsformen. Faktenchecks sind zu einem festen Bestandteil der Medienberichterstattung geworden und Politiker*innen warnen zunehmend vor den Gefahren für die Demokratie. Angesichts dieser großen Aufmerksamkeit könnte man annehmen, dass wir bereits alles über Desinformation wüssten, was es zu wissen gibt. Doch ist das wirklich so? In einer aktuellen Studie im Auftrag der Bundesnetzagentur hat das Forschungsteam von Ann-Kathrin Watolla, Patrick Zerrer, Jan Rau, Lisa Merten, Matthias C. Kettemann und Cornelius Puschmann ein Scoping Review durchgeführt, in dem untersucht wurde, wie sich Desinformation auf Wahlprozesse auswirkt. Dieser Artikel greift drei verbreitete Annahmen über Desinformation auf und zeigt, was wir darüber tatsächlich wissen und was nicht.
Annahme 1: Wir haben alle das gleiche Verständnis von ‚Desinformation‘.
Der Begriff ‚Desinformation‘ ist inzwischen fest im öffentlichen Diskurs verankert, weshalb die meisten Menschen eine ungefähre Vorstellung davon haben, was damit gemeint ist. Zwar wird das Phänomen von Forschenden, politischen Entscheidungsträger*innen sowie von Medienschaffenden und -verbreitenden regelmäßig thematisiert, doch die Interpretationen unterscheiden sich erheblich (Bleyer-Simon & Reviglio, 2024; Dreyer et al., 2021). Insbesondere, wenn wir verwandte Begriffe wie ‚Fehlinformation‘, ‚Fake News‘ oder ‚Verschwörungstheorie‘ berücksichtigen, die in diesem Zusammenhang verwendet werden. Auch die Vielfalt der Formen falscher oder irreführender Informationen trägt dazu bei, dass ein gemeinsames Verständnis des Begriffs ‚Desinformation‘ immer schwieriger zu erreichen ist.
Was wissen wir eigentlich über ‚Desinformation‘?
Die meisten Expert*innen und Menschen sind sich einig, dass der Begriff ‚Desinformation‘ Inhalte bezeichnet, die falsche oder irreführende Informationen enthalten (Kessler, 2023). Erreichen solche Inhalte eine große Anzahl von Menschen, können sie gesellschaftlichen Schaden anrichten.
Ein Beispiel hierfür ist die Desinformationskampagne ‚Pizzagate‘ während der Präsidentschaftswahlen 2016 in den USA. In dieser Kampagne wurde behauptet, dass führende Politiker*innen der Demokratischen Partei, darunter Hillary Clinton, mit einem globalen Pädophilenring in Verbindung stünden, der über verschiedene Einrichtungen wie eine Pizzeria in Washington, D.C., operiere. Die Verbreitung dieser Desinformation führte dazu, dass ein bewaffneter Mann die Pizzeria stürmte, um nach versteckten Kindern zu suchen. Dies zeigt, welche schwerwiegenden Folgen Desinformation haben kann.
Allerdings weist diese weit gefasste Definition von Desinformation mehrere Probleme auf. Erstens wird häufig die böswillige Absicht, falsche oder irreführende Informationen zu verbreiten, als Bestandteil der Definition angeführt. Doch lässt sich eine solche Absicht tatsächlich immer nachweisen? Betrachtet man die ‚Doppelgänger-Kampagne‘, eine Online-Informationsoperation aus Russland, bei der gefälschte Klone legitimer Websites erstellt werden, so ist die böswillige Intention in diesem Fall relativ eindeutig. Doch was ist jedoch mit Einzelpersonen, die falsche Informationen verbreiten? Können wir in jedem Fall sicher feststellen, welche Absicht hinter der Verbreitung von Inhalten steht?
Zweitens kann sich der Begriff der Desinformation auf eine Vielzahl unterschiedlicher Phänomene beziehen (Kapantai et al., 2021). Ein Beispiel ist ‚Clickbait‘: Hierbei handelt es sich um glaubwürdige Inhalte, bei denen jedoch übertriebene oder irreführende Überschriften genutzt werden, um die Aufmerksamkeit von Nutzenden zu gewinnen. Diese Strategie kennen vermutlich die meisten von uns, wenn wir merken, dass die Überschrift eines Artikels Erwartungen weckt, die der eigentliche Inhalt beim Lesen nicht erfüllt. Demgegenüber steht sogenannter ‚fabricated content‘, also frei erfundene Inhalte, die keinerlei faktische Grundlage besitzen und einzig dem Zweck dienen, zu täuschen oder Schaden anzurichten. Sie werden gemeinhin als ‚Fake News‘ bezeichnet. Eine weitere Kategorie ist der sogenannte ‚imposter content‘. Hierbei werden glaubwürdige Quellen imitiert, indem deren Logos und Markenzeichen verwendet werden, um Nutzenden Glaubwürdigkeit zu suggerieren und den Eindruck von Seriosität zu erwecken. Ein anschauliches Beispiel ist wiederum die Doppelgänger-Kampagne, bei der die Online-Auftritte von Medienorganisationen und öffentlichen Einrichtungen kopiert und anschließend mit Desinformationsinhalten gefüllt wurden.
Aufgrund der Vielzahl der verschiedenen Arten von Desinformation ist ein gemeinsames Verständnis des Begriffs schwer zu erreichen. Hinzu kommt, dass wir uns auch mit weiteren Begriffen auseinandersetzen müssen, die häufig in engem Zusammenhang mit Desinformation stehen. Zwar existieren einige Forschungsarbeiten, die zwischen Desinformation, Fehlinformation und falschen Informationen unterscheiden (Jack, 2017; Wardle & Derakhshan, 2017), doch bleibt diese Abgrenzung unscharf. Noch immer ist unklar, wo Desinformation beginnt und wo sie endet.
Dass weder die neuen Gesetze der Europäischen Union noch große Online-Plattformen ein einheitliches Verständnis dieser Begriffe entwickelt haben (Bleyer-Simon & Reviglio, 2024), trägt zusätzlich zur Unübersichtlichkeit bei. Umso dringlicher ist daher eine intensivere Grundlagenforschung, die Desinformation nicht nur als einzelne falsche Behauptung, sondern als ganze Geschichten und Narrative in den Blick nimmt. Denn Desinformation verbreitet sich meist nicht in isolierten Inhalten, sondern in bewusst konstruierten Erzählsträngen, die darauf abzielen, umfassende Narrative auf der Basis falscher oder irreführender Informationen zu schaffen.
Annahme 2: Echokammern und Filterblasen verstärken Desinformation.
Die Begriffe ‚Echokammern‘ und ‚Filterblasen‘ beschreiben das Phänomen, dass uns Algorithmen wiederholt Inhalte anzeigen, die unsere bereits bestehenden Ansichten bestätigen. Auf diese Weise können Subkulturen entstehen, die stark von bestimmten Perspektiven geprägt sind. Zwar ist ihre tatsächliche Existenz unter Wissenschaftler*innen umstritten, doch gilt als belegt, dass Empfehlungssysteme – also die Algorithmen, die entscheiden, welche Inhalte in unseren Feeds erscheinen – polarisierende oder besonders virale Beiträge bevorzugt anzeigen, unabhängig davon, ob diese korrekt sind (Van Raemdonck & Meyer, 2024). Diese Systeme übernehmen die Aufgabe, die enorme Menge verfügbarer Inhalte zu sortieren und sie uns in einer übersichtlichen und attraktiven Form zu präsentieren. Grundlage dafür sind gesammelte Nutzungsdaten über unser früheres Verhalten sowie über unsere Verbindungen zu anderen Nutzer*innen (Sun, 2023).
Welche Rolle spielen Algorithmen bei der Verbreitung von Desinformation?
Die Diskussion darüber, ob Algorithmen Inhalte mit Desinformationscharakter bevorzugt anzeigen und dadurch ihre Verbreitung verstärken, ist eng mit der Sorge um eine zunehmende Fragmentierung der Gesellschaft verknüpft. Die Befürchtung lautet: Wenn Algorithmen Nutzer*innen wiederholt Inhalte präsentieren, die ihre bestehende Weltanschauung bestätigen, bewegen sie sich zunehmend in Echokammern. Obwohl dies intuitiv einleuchtend erscheint, konnte dies durch empirische Untersuchungen nur teilweise belegt werden (Hartmann et al., 2024). Zwar engagieren sich politisch radikalere Nutzende oft stärker in Online-Räumen und neigen dazu, Inhalte zu teilen, die ihren Ansichten entsprechen (Aruguete et al., 2023). Jedoch ist es wichtig zu bedenken, Dennoch darf nicht übersehen werden, dass Menschen ihren Informationsbedarf in der Regel über eine Vielzahl unterschiedlicher Informationsquellen decken.
Man kann sich zum Beispiel eine Person vorstellen, deren Feed von politisch aufgeladenen Memes, Artikeln und Videos geprägt ist – Inhalte, die sie eifrig mit Likes, Kommentaren und geteilten Beiträgen versieht. Gleichzeitig informiert sich dieselbe Person jedoch möglicherweise auch über Fernsehnachrichten, Gespräche im Freundeskreis oder die lokale Tageszeitung. Das bedeutet: Selbst wenn Algorithmen die Sichtbarkeit von Desinformationen in digitalen Räumen verstärken, bilden diese Inhalte in der Regel nicht die einzige Informationsquelle einer Person.
Empfehlungsalgorithmen, die vor allem auf hohes Engagement reagieren, verstärken zwar die Vorlieben der Nutzenden (Figà Talamanca & Arfini, 2022), und können so zur Entstehung politisch einseitiger Communities beitragen (Figà Talamanca & Arfini, 2022). Dennoch stellen diese Communities nur einen Teil des gesamten Informationsumfelds dar. Die zentrale Herausforderung besteht darin, dass wir bisher kaum wissen, wie Menschen ihre verschiedenen Informationsquellen tatsächlich miteinander kombinieren. Da Forschenden nach wie vor kein umfassender Zugang zu Plattformdaten gewährt wird, lässt sich bislang auch nicht präzise messen, wie stark algorithmische Empfehlungseffekte tatsächlich sind.
Mit dem bevorstehenden delegierten Rechtsakt des Digital Services Act über den Zugang zu Forschungsdaten werden wir hoffentlich in der Lage sein, die Verstärkungseffekte von Algorithmen besser zu untersuchen und zu verstehen. Dabei muss berücksichtigt werden, dass Plattformen und ihre Algorithmen sehr unterschiedlich funktionieren und sich im Laufe der Zeit zudem stark verändern können.
Annahme 3: Wir können Menschen darin schulen, KI-generierte Desinformation zu erkennen.
Maßnahmen zur Bekämpfung von Desinformation lassen sich in drei Kategorien von Interventionen einteilen: ‚Prebunking‘, also die Bereitstellung informativer Texte über Desinformationum, um Nutzende bereits im Vorfeld zu sensibilisieren; ‚Nudging‘, also die Anzeige von Warnhinweisen und ähnlichen Anzeigen, um Nutzenden beim Scrollen durch ihre Social-Media-Feeds auf potenziell problematische Inhalte aufmerksam zu machen, sowie ‚Debunking‘, also die nachträgliche Überprüfung und Richtigstellung falscher Behauptungen durch nachträgliche Faktenprüfung (Kessler, 2023).
Während ‚Debunking‘ häufig von Nachrichtenmedien genutzt wird – etwa regelmäßig im Anschluss an Interviews mit Donald Trump oder Vertreter*innen der rechtspopulistischen Partei Alternative für Deutschland (AfD) –, sind in den vergangenen Jahren zahlreiche Initiativen entstanden, die darauf abzielen, Nutzende selbst in die Lage zu versetzen, Desinformation eigenständig zu erkennen.
Ist die Schulung von Menschen zur Erkennung von Desinformation der richtige Weg?
Stellen wir uns vor, wir scrollen durch unseren Social-Media-Feed und stoßen auf ein ein scheinbar authentisches Video eines bekannten Politikers, in dem er eine umstrittene neue Politik ankündigt. Die Stimme klingt überzeugend, die Mimik wirkt natürlich und der Hintergrund erinnert an eine typische Pressekonferenz. Würden wir erkennen, dass es sich um eine Fälschung handelt?
Aktuelle Studien legen nahe, dass viele von uns dazu nicht in der Lage sind. Rund 40 Prozent der Befragten erkennen Deepfakes – also mit KI erzeugte, realistisch wirkende audiovisuelle Desinformationsinhalte – nicht als manipuliert. Gleichzeitig überschätzen viele ihre Fähigkeit, solche Inhalte zuverlässig zu identifizieren (Birrer & Just, 2024). Besonders problematisch ist dabei, dass es sich bei KI-generierten Desinformationen häufig um audiovisuelle Formate handelt. Hier kommt ein grundlegender Mechanismus ins Spiel: Menschen neigen dazu, dem, was sie selbst sehen und hören, stärker zu vertrauen (Hameleers & Marquart, 2023). Dieses Vertrauen macht uns besonders anfällig für täuschend echt wirkende Inhalte.
Hinzu kommt, dass die technische Qualität von Deepfakes stetig steigt. Während KI-generierte Videos vor einigen Jahren noch durch unnatürliche Gesichtsausdrücke, unregelmäßige Sprachrhythmen oder geringe Bildqualität auffielen, sind diese Schwachstellen dank technischer Fortschritte weitgehend beseitigt. Damit wird die menschliche Erkennung von Fälschungen immer schwieriger (Patel et al., 2023).
Angesichts dieser Entwicklungen wirkt es naiv, allein auf die Fähigkeit von Menschen zu setzen, KI-generierte Desinformation zu durchschauen. Da weder die technologische Entwicklung noch die Überzeugungskraft solcher Inhalte vorhersehbar ist, braucht es andere Wege. Ein Ansatz besteht darin, die Verantwortung der Plattformen für die von ihnen verbreiteten KI-generierten Inhalte zu stärken. Regulierungen wie das KI-Gesetz der EU, das bereits Kennzeichnungspflichten vorsieht, gehen in diese Richtung.
Gleichzeitig wird KI selbst eingesetzt, um Desinformation zu bekämpfen. Neben der immer besseren Erzeugung von Deepfakes gibt es auch Fortschritte bei der automatisierten Erkennung. So existieren bereits Modelle, die Texte nach sprachlichen Mustern, Widersprüchen, Aussagen ohne Belege und fehlenden Quellenangaben durchsuchen (Tajrian et al., 2023). Ebenso entwickeln Forschende KI-gestützte Tools, die in audiovisuellen Inhalten feinste Details wie Augenbewegungen oder Lippensynchronisation analysieren, um Manipulationen aufzudecken (Ghai et al., 2024; Patel et al., 2023).
Wie geht es weiter?
Ein genauerer Blick auf gängige Annahmen über Desinformation verdeutlicht, wie wenig wir bislang über ihre Grundlagen wissen. Wie viele Menschen sind tatsächlich Desinformation ausgesetzt? Und wenn dies der Fall ist: Welche Auswirkungen hat das auf ihr Verhalten – etwa auf ihre Wahlentscheidungen oder auf ihre Einstellung zur Demokratie? Diese Fragen sind bislang weitgehend unbeantwortet.
Mit dem bevorstehenden Zugang zu Plattformdaten im Rahmen des Digital Services Act besteht die Hoffnung, dass zumindest ein Teil dieser ‚Black Box‘ erhellt wird. Forschende könnten dadurch notwendige Einblicke erhalten, um Erkenntnisse zu gewinnen, die über bloße Spekulationen hinausgehen.
Denn obwohl ständig und häufig über Desinformation gesprochen wird, fehlt es nach wie vor an grundlegenden Forschungsergebnissen, die ein besseres Verständnis des Phänomens ermöglichen. Nur auf dieser Basis lassen sich wirksame Regulierungsmaßnahmen entwickeln und gesellschaftliche Resilienz stärken. Denn um Desinformation wirksam bekämpfen zu können, brauchen wir empirisch fundierte Antworten – keine Annahmen.
Dieser Artikel basiert auf der Studie ‚Gesellschaftliche Auswirkungen systemischer Risiken. Demokratische Prozesse im Kontext von Desinformationen‘ (2025) von Ann-Kathrin Watolla, Patrick Zerrer, Jan Rau, Lisa Merten, Matthias C. Kettemann und Cornelius Puschmann. Sie wurde im Auftrag der Bundesnetzagentur erstellt.
Referenzen
Aruguete, N., Calvo, E., & Ventura, T. (2023). News by Popular Demand: Ideological Congruence, Issue Salience, and Media Reputation in News Sharing. The International Journal of Press/Politics, 28(3), 558-579. https://doi.org/10.1177/19401612211057068
Birrer, A., & Just, N. (2024). What we know and don’t know about deepfakes: An investigation into the state of the research and regulatory landscape. New Media & Society. https://doi.org/10.1177/14614448241253138
Bleyer-Simon, K., & Reviglio, U. (2024). Defining Disinformation across EU and VLOP Policies. European Digital Media Observatory. https://edmo.eu/wp-content/uploads/2024/10/EDMO-Report-%E2%80%93-Defining-Disinformation-across-EU-and-VLOP-Policies.pdf
Dreyer, S., Stanciu, E., Potthast, K. C., & Schulz, W. (2021). Desinformation. Risiken, Regulierungslücken und adäquate Gegenmaßnahmen. Landesanstalt für Medien NRW.
Figà Talamanca, G., & Arfini, S. (2022). Through the Newsfeed Glass: Rethinking Filter Bubbles and Echo Chambers. Philosophy & Technology, 35(1), 20. https://doi.org/10.1007/s13347-021-00494-z
Ghai, A., Kumar, P., & Gupta, S. (2024). A deep-learning-based image forgery detection framework for controlling the spread of misinformation. Information Technology & People, 37(2), 966–997. https://doi.org/10.1108/ITP-10-2020-0699
Hameleers, M., & Marquart, F. (2023). It’s Nothing but a Deepfake! The Effects of Misinformation and Deepfake Labels Delegitimizing an Authentic Political Speech. International Journal of Communication, 17, 6291–6311.
Hartmann, D., Pohlmann, L., Wang, S. M., & Berendt, B. (2024). A Systematic Review of Echo Chamber Research: Comparative Analysis of Conceptualizations, Operationalizations, and Varying Outcomes. arXiv preprint arXiv:2407.06631
Jack, C. (2017). Lexicon of Lies: Terms for Problematic Information (pp. 1–20). Data & Society.
Kapantai, E., Christopoulou, A., Berberidis, C., & Peristeras, V. (2021). A systematic literature review on disinformation: Toward a unified taxonomical framework. New Media & Society, 23(5), 1301–1326. https://doi.org/10.1177/1461444820959296
Kessler, S. H. (2023). Vorsicht #Desinformation: Die Wirkung von desinformierenden Social Media-Posts auf die Meinungsbildung und Interventionen. https://www.medienanstalt-nrw.de/fileadmin/user_upload/Bericht__Studie_Vorsicht_Desinformation
Patel, Y., Tanwar, S., Gupta, R., Bhattacharya, P., Davidson, I. E., Nyameko, R., Aluvala, S., & Vimal, V. (2023). Deepfake Generation and Detection: Case Study and Challenges. IEEE Access, 11, 143296–143323. https://doi.org/10.1109/ACCESS.2023.3342107
Sun, H. (2023). Regulating Algorithmic Disinformation.
Tajrian, M., Rahman, A., Kabir, M. A., & Islam, Md. R. (2023). A Review of Methodologies for Fake News Analysis. IEEE Access, 11, 73879–73893. https://doi.org/10.1109/ACCESS.2023.3294989
Van Raemdonck, N., & Meyer, T. (2024). Why disinformation is here to stay. A socio-technical analysis of disinformation as a hybrid threat. In L. Lonardo (Ed.), Addressing Hybrid Threats (pp. 57–83). Edward Elgar Publishing. https://doi.org/10.4337/9781802207408.00009
Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policy making (No. 27; pp. 1–107). Council of Europe.
Watolla, A., Zerrer, P., Rau, J., Merten, L., Kettemann, M.C., & Puschmann, C. (2025). Gesellschaftliche Auswirkungen systemischer Risiken. Demokratische Prozesse im Kontext von Desinformationen. Bundesnetzagentur. https://www.dsc.bund.de/DSC/DE/Aktuelles/studien/Auswirkungen%20Systemischer%20Risiken.pdf?__blob=publicationFile&v=3
Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Plattform Governance
Nein zu KI: Wer widersetzt sich und warum?
Dieser Artikel zeigt: „Nein" zu KI sagen, heißt nicht, Technologie grundsätzlich abzulehnen. Es ist ein Weg, Macht zu hinterfragen und demokratische Teilhabe einzufordern.
Blindspot Nachhaltigkeit: Die Ökobilanz von KI messbar machen
Die Ökobilanz von KI bleibt ein blinder Fleck: Entlang des gesamten Lebenszyklus fehlen belastbare Daten und Transparenz. Wie kann sich das ändern?
Digitaler Stoffwechselriss: Warum leben wir online über unsere Verhältnisse?
Wir sparen Plastik und fliegen weniger, aber scrollen und streamen pausenlos. Der digitale Stoffwechselriss zeigt, warum Umweltbewusstsein oft online endet.