Zwischen realer Gefahr und moralischer Panik
Ein differenzierender Blick auf die Forschung zu Desinformation
Desinformation – also gezielt gestreute Falschinformationen mit schädigender Absicht – gilt seit Jahren als Bedrohung für Demokratien.[1] Der Global Risks Report 2025 sieht sie sogar als größtes globales Risiko der kommenden zwei Jahre.[2] Entsprechend groß ist die Unsicherheit: 59 Prozent der Menschen weltweit sorgen sich darum, ob Inhalte auf Social Media echt oder falsch sind.[3]
Die Forschung zeigt allerdings ein differenzierteres Bild. Metastudien finden bislang kaum nachweisbare Effekte auf zentrale demokratische Prozesse wie Wahlen.[4] Zwar können soziale Medien durch ökonomische Logiken und Algorithmen Desinformation begünstigen, ob das Phänomen jedoch tatsächlich Treiber demokratischer Fragilität ist, bleibt umstritten. Eine Reihe von ForscherInnen sieht in dieser Art von Bedrohungserzählung gar eine »moralische Panik«.[5]
Diese wissenschaftliche Relativierung bedeutet jedoch keineswegs, dass Desinformation vernachlässigt werden sollte. Vielmehr braucht es eine differenzierte Betrachtung mit Blick auf Reichweite und Wirkung. Genau hier setzt dieser Beitrag an: Bezugnehmend auf Befunde der interdisziplinären Digitalisierungsforschung bietet er einen Überblick zum aktuellen Wissensstand, zum einen, was die Verbreitungsebene betrifft (wann erreicht Desinformation das Publikum, das angesprochen werden soll?), zum anderen, was die Inhaltsebene betrifft (welche Botschaften entfalten Wirkung?). Doch zunächst klären wir, was überhaupt unter »Desinformation« zu verstehen ist.
Was ist eigentlich Desinformation?
Im öffentlichen Diskurs ist insbesondere »Fake News« ein geläufiger Begriff. In der Forschung wird er jedoch zunehmend vermieden, da er auch als politisches Schlagwort zur Delegitimierung etablierter Medien eingesetzt wird.[6] Stattdessen rückt die Debatte stärker Konzepte wie »Post-Truth« oder »Information Disorders« in den Fokus. Zentrale Grundlage ist dabei die inhaltliche Unterscheidung entlang zweier Dimensionen: Falschheit und Täuschungsabsicht.[7] Daraus leiten sich drei zentrale Begriffe ab:
- Misinformation: falsche Inhalte ohne Täuschungs- oder Schadensabsicht.
- Desinformation: falsche Inhalte mit Täuschungs- und Schadensabsicht.
- Mal-Information: wahre Inhalte, die bewusst schädigend eingesetzt werden.
Desinformation lässt sich darüber hinaus als Kommunikationsprozess verstehen, in dem Akteure, Botschaften und Publikum zusammenwirken.[8] Die Akteure reichen von Social-Media-NutzerInnen über politische Figuren und Medien bis hin zu staatlichen oder wirtschaftlich motivierten Organisationen, oft verstärkt durch koordinierte oder unauthentische Accounts.[9] Wie Desinformation konkret aussieht, hängt jedoch vom politischen und medialen Kontext ab.[10] Inhaltlich orientiert sie sich beispielsweise oft an nationalen Nachrichtenagenden.[11]
Einmal in Umlauf gebracht, kann Desinformation von immer neuen Akteuren aufgegriffen und weiterverbreitet werden. Entscheidend ist dabei weniger ihre Existenz als ihre Verbreitung: Erst wenn Inhalte gesehen, geteilt oder diskutiert werden, können sie Wirkung entfalten.[12] Dabei verschwimmen die Grenzen zwischen Des- und Misinformation schnell. Was mit Täuschungsabsicht gestreut wurde, verbreiten Menschen weiter, die diese Intention gar nicht kennen. Empirisch lässt sich daher schwer trennen, wer bewusst schaden möchte und wer unwissentlich falsche Inhalte teilt.
Für viele der Prozesse, die Reichweite und Wirkung erzeugen, ist die ursprüngliche Intention ohnehin zweitrangig. Entsprechend liefert auch die Misinformationsforschung wertvolle Einsichten in die Mechanismen, über die falsche Inhalte Aufmerksamkeit bekommen, sich verbreiten und Wirkung entfalten. Deshalb beziehen wir in diesem Beitrag, wo es analytisch sinnvoll ist, auch Befunde aus der Misinformationsforschung ein.
Wann verbreitet sich Desinformation?
Grundlegend gilt: Nicht jeder Inhalt, der online gepostet wird, erreicht ein großes bzw. das passende Publikum. Reichweite entsteht in erster Linie über stark vernetzte Accounts (Stichwort: »soziale Ansteckung«) und/oder algorithmische Verstärkung.[13] Plattformeigene Empfehlungsalgorithmen und inhaltliche Merkmale können Verbreitung also begünstigen oder einschränken.[14]
Hinsichtlich sozialer Ansteckung wird angenommen, dass sich Desinformation besonders dann verbreitet, wenn sie von vertrauten Personen geteilt wird.[15] Hinzu kommen Merkmale, die ihre Attraktivität erhöhen: wahrgenommener Nutzen, geringe Komplexität und hohe Sichtbarkeit.[16] Ob eine Nachricht wahr oder falsch ist, macht für die Verbreitung tatsächlich weniger Unterschied als ihr Neuigkeitswert (Nutzen) und ihre Verständlichkeit (Komplexität).[17] Hinzu kommt der sogenannte »Illusory Truth Effect«: Je häufiger Menschen eine Botschaft sehen (hohe Sichtbarkeit), desto glaubwürdiger erscheint sie und desto eher verbreitet sie sich weiter.[18]
Darüber hinaus ist gut erforscht, wer Desinformation besonders oft teilt. Ausschlaggebend sind hier das allgemeine Social-Media-Nutzungsverhalten, Voreinstellungen sowie soziodemographische Faktoren. Studien zeigen: Besonders aktive Accounts verbreiten Falschinformationen deutlich häufiger als durchschnittliche NutzerInnen.[19] Neben Faktoren wie höherem Alter spielt auch die politische Orientierung eine Rolle beim Verbreiten von Desinformation: Personen, die sich eher als politisch rechts einordnen, teilen Falschinformationen signifikant häufiger (sieben- bis neunmal mehr) als Personen, die sich eher links einordnen. Dieser Effekt wird verstärkt, wenn die Posts bestehende politische Voreinstellungen der Menschen unterstützen.[20]
Um algorithmische Verstärkung zu erreichen, setzen Desinformationskampagnen außerdem auf koordiniertes Verhalten, etwa durch Netzwerke von Fake-Accounts und Bots, die Inhalte gleichzeitig verbreiten, um Relevanz zu signalisieren und ein größeres Publikum zu suggerieren.[21] Erste Studien zu Reichweite, Exposition und Interaktionsmustern zeigen jedoch, dass koordinierte Kampagnen meist erstaunlich geringe Verbreitung erfahren.[22] Botschaften werden zwar verstärkt, dringen aber kaum in neue Milieus vor.[23] Die Wirksamkeit steigt, wenn Botschaften kontextgerecht platziert und an echte Nutzerprofile angepasst sind.[24] Letztlich erfolgt die Weiterverbreitung durch Social-Media-UserInnen am besten, wenn persönliche Motive und Belohnungen (z.B. psychologische, soziale, finanzielle) vorhanden sind.[25]
Wie wird Desinformation gestreut?
Beispiele wie die russische Einflussnahme im US-Wahlkampf 2016 zu Gunsten Donald Trumps illustrieren die Grenzen von Desinformationskampagnen: Zwar erhielt die Offenlegung des russischen Einflusses enorme mediale Aufmerksamkeit,[26] doch rund 70 Prozent der Interaktionen mit den Social-Media-Inhalten entfielen auf nur ein Prozent der NutzerInnen – meist ohnehin stark parteiische RepublikanerInnen. Zudem blieb die Zahl russischer Posts im Vergleich zu Inhalten traditioneller Medien und KandidatInnen schlicht zu gering, um neue Zielgruppen zu erreichen. Ein signifikanter Effekt der Kampagne auf Wahlentscheidungen ließ sich daher nicht nachweisen.[27] Ähnlich begrenzt blieb der Einfluss in Frankreich 2017, wo koordinierte Bot-Netzwerke vor allem von ausländischen Alt-Right-Nutzenden verstärkt wurden und das eigentliche Zielpublikum in Frankreich verfehlten.[28]
Zugleich belegen Fälle wie die Causa Brosius-Gersdorf, dass einzelne Narrative sehr wohl große Reichweite entfalten können. Die Diffamierung der Kandidatur der designierten Verfassungsrichterin wurde nicht nur durch eine AfD-Kampagne angestoßen, sondern vor allem von alternativen rechten Medien über eigene X-Accounts verbreitet und so in weitere Kreise getragen.[29] Studien zeigen, dass insbesondere als rechts und populistisch einzuordnende parteiische Medien immer wieder als Verstärker von Desinformation fungieren. Gerade Falschinformationen zu Themen wie Grenzpolitik, internationale Beziehungen oder Religion gelangen in diesen Medien signifikant häufiger und konsequenter auf die Agenda als in traditionellen Medien.[30] Die Diffusion von Desinformation ist daher weniger ein reines Plattformproblem als auch Ergebnis des Zusammenspiels von politischen AkteurInnen, gesellschaftlichen Spannungen und medialen Strukturen.[31]
Wann überzeugt Desinformation?
Doch selbst wenn Desinformationsinhalte geteilt werden, heißt das nicht automatisch, dass ihnen auch geglaubt wird. Menschen interagieren mit Desinformation aus ganz unterschiedlichen Motiven: etwa zur Vernetzung, aus Skepsis oder Empörung, zur Signalisierung von Gruppenzugehörigkeit oder schlicht zur Unterhaltung.[32] Dabei spielt der emotionale Gehalt von Desinformation eine wichtige Rolle. Insbesondere Inhalte, die Wut, Angst oder moralische Empörung[33] oder auch Vorfreude, Spannung und Vertrauen[34] auslösen, werden häufiger geteilt, aktivieren Aufmerksamkeit und umgehen rationale Prüfmechanismen,[35] was sie besonders anschlussfähig macht. Zudem zeigen Studien, dass viele Menschen Inhalte wegen der Belohnungsstrukturen sozialer Medien teilen. Sie reflektieren die Botschaften kaum – und tragen so unabsichtlich zur Verbreitung von Falschinformationen bei.[36]
Ob Desinformation verfängt, hängt letztlich von sozialen und individuellen Faktoren ab. So bewerten Menschen politische Aussagen üblicherweise vor dem Hintergrund ihrer individuellen Vorlieben und Einstellungen. Menschen glauben Informationen eher, wenn diese ihrer eigenen Weltsicht entsprechen (Stichwort: Bestätigungsfehler).[37] Wenn ein Thema zusätzlich persönlich wichtig erscheint, dann wird es auch ohne faktische Grundlage geteilt.[38]
Darüber hinaus zeigen Personen, die sich durch geringe Offenheit, geringes politisches Wissen und bestimmte psychopathologische Neigungen auszeichnen, eine höhere Anfälligkeit für irreführende Informationen.[39] Auch tiefes Misstrauen gegenüber Medien und Institutionen begünstigt Akzeptanz und Verbreitung von Desinformation – besonders in Phasen gesellschaftlicher Unsicherheit, in denen einfache Erklärungen attraktiv sind.[40] Gleichzeitig wird der direkte Einfluss von Desinformation auf das Verhalten überschätzt. Viele Menschen bleiben trotz allem skeptisch gegenüber manipulierten Inhalten.[41] Direkte Effekte auf das Wahlverhalten sind nicht belegt.[42] Studien deuten dagegen eher auf langfristige Folgen für den gesellschaftlichen Zusammenhalt hin wie Polarisierung und Vertrauensverlust.[43]
Die Forschungslage zeigt damit ein ambivalentes und vielschichtiges Bild: Viele Menschen verfügen über kognitive und soziale Schutzmechanismen, die eine direkte Übernahme falscher Inhalte verhindern, nichtsdestotrotz erscheinen sie unter bestimmten Umständen attraktiv.
Was heißt das für den Umgang mit Desinformation?
Kaum ein gesellschaftliches Phänomen erhält derzeit so viel Aufmerksamkeit wie Desinformation – und doch zeigt die Forschung bislang kein einheitliches oder gar bedrohliches Gesamtbild. Stattdessen wird deutlich: Der Erfolg von Desinformationskampagnen ist ein komplexes Zusammenspiel aus Strategien, Inhalten, Eigenschaften von Accounts und Publikum sowie der algorithmischen Logik sozialer Medien. Hinzu kommt die zentrale Rolle politischer Akteure, die Narrative zuspitzen, und der Einfluss individueller Einstellungen sowie gesellschaftlicher Strukturen – etwa struktureller Rassismus –, die Desinformation erst einen Resonanzboden verschaffen.
Insgesamt sollten die bestehenden Unsicherheiten in der Forschung jedoch nicht mit Wirkungslosigkeit von Desinformation verwechselt werden: Insbesondere langfristige Folgen auf Vertrauen, Diskurs und Polarisierung bleiben schwer empirisch messbar, aber nicht irrelevant. Insgesamt gilt: Alarmistische Desinformationsdebatten ohne kritische Einordnung sind kontraproduktiv. Sie können selbst Polarisierung befeuern, Misstrauen gegenüber Medien und Institutionen (und damit die Anfälligkeit für Desinformation) verstärken oder autoritäre Regulierungsfantasien begünstigen.[44]
Zusätzlich verändern große Sprachmodelle wie ChatGPT, Claude oder Gemini das Feld derzeit grundlegend. Sie ermöglichen erstmals die massenhafte Erstellung personalisierter und passgenauer Desinformationsinhalte, beispielsweise Deepfakes.[45] Es ist anzunehmen, dass sie das Misstrauensproblem weiter verschärfen.[46] Echtes kann vorschnell als »KI-generiert« gelten – und umgekehrt. Es wird zukünftig nur schwieriger werden, sich im (digitalen) Informationsökosystem zurechtzufinden. Das stellt enorme Anforderungen an die gesellschaftliche Medienkompetenz.
Die Herausforderung liegt heute also weniger in der Eindämmung von Desinformation als in der Stärkung resilienter Informationsräume und der Kompetenzen der Einzelnen, um die Erfolgsmechanismen von Desinformation zu dämmen. Denn nur ein System, das Vertrauen schafft, Informationen hinterfragt und Unsicherheiten aushält, kann Demokratie langfristig schützen.
Miriam Milzner ist wissenschaftliche Mitarbeiterin an Freien Universität Berlin und am Weizenbaum-Institut in der Forschungsgruppe »Dynamiken der digitalen Mobilisierung«.
Dr. Josephine B. Schmitt ist wissenschaftliche Koordinatorin am Center for Advanced Internet Studies (CAIS), wo sie sich u.a. mit der Entwicklung der Digitalisierungsforschung befasst.
Dieser Beitrag geht auf einen gemeinsamen Vortrag der beiden Autorinnen mit Andreas Jungherr (Universität Bamberg) auf der re:publica 2025 in Berlin mit dem Titel »(Des)informier Dich! Fakten statt Mythen, Forschung statt Bauchgefühl« sowie auf den Vortrag »Von Augustus bis Trump – Warum Desinformation ein Problem bleibt und was wir trotzdem dagegen tun können« von Josephine B. Schmitt mit ihrem Kollegen Hendrik Heuer (CAIS) auf dem 38C3 in Hamburg zurück.
Fußnoten
[1] Siehe z.B. Claire Wardle & Hossein Derakhshan, Information Disorder. Toward an Interdisciplinary Framework for Research and Policy Making, hgg. v. Council of Europe (Strasbourg Cedex, 2017), online abrufbar hier.
[2] Siehe World Economic Forum, The Global Risks Report 2025, hgg. v. World Economic Forum (2025), online abrufbar hier.
[3] Siehe Nic Newman u.a., Reuters Institute Digital News Report 2024, hgg. v. Reuters Institute for the Study of Journalism (2024), online abrufbar hier.
[4] Siehe Robin Mansell u.a., Information Ecosystems and Troubled Democracy, hgg. v. Observatory on Information and Democracy (2025), online abrufbar hier.
[5] Siehe z.B. Jeanette Hofmann, »Desinformation Als Symptom. Ein Überblick«, in: Bundesamt für Verfassungsschutz (Hg.), Tagungsband Wissenschaftskonferenz 2023. Meinungsbildung 2.0 – Strategien Im Ringen Um Deutungshoheit Im Digitalen Zeitalter (Köln, 2023), S. 20-31.
[6] Siehe Jana Laura Egelhofer & Sophie Lecheler, »Fake News as a Two-Dimensional Phenomenon. A Framework and Research Agenda«, in: Annals of the International Communication Association, Nr. 2, Jg. 43 (2019), S. 97–116.
[7] Siehe Edson C. Tandoc, Zheng Wei Lim & Richard Ling, »Defining ›Fake News‹«, in: Digital Journalism, Nr. 2, Jg. 6 (2018), S. 137–153.
[8] Siehe Camille François, Actors, Behaviors, Content: A Disinformation ABC. Highlighting Three Vectors of Viral Deception to Guide Industry & Regulatory Responses, hgg. v. Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression (2019), online abrufbar hier.
[9] Siehe Franziska B. Keller u.a., »Political Astroturfing on Twitter. How to Coordinate a Disinformation Campaign«, in: Political Communication, Nr. 2, Jg. 37 (2020), S. 256–280.
[10] Siehe Regina Cazzamatta, »Global Misinformation Trends. Commonalities and Differences in Topics, Sources of Falsehoods, and Deception Strategies across Eight Countries«, in: New Media & Society, Nr. 11, Jg. 27 (2025), S. 6334–6358.
[11] Siehe Edda Humprecht, »Where ›Fake News‹ Flourishes. A Comparison across Four Western Democracies«, in: Information, Communication & Society, Nr. 13, Jg. 22 (2019), S. 1973–1988.
[12] Siehe Kate Starbird, Ahmer Arif & Tom Wilson, »Disinformation as Collaborative Work. Surfacing the Participatory Nature of Strategic Information Operations«, in: Proceedings of the ACM on Human-Computer Interaction, Jg. 3 (Nov. 2019), S. 1–26.
[13] Siehe Renee DiResta, Invisible Rulers. The People Who Turn Lies into Reality (New York: PublicAffairs, 2024).
[14] Siehe Royal Pathak, Francesca Spezzano & Maria Soledad Pera, »Understanding the Contribution of Recommendation Algorithms on Misinformation Recommendation and Misinformation Dissemination on Social Networks«, in: ACM Transactions on the Web, Nr. 4, Jg. 17 (2023), S. 1–26; sowie Thi Bich Ngoc Hoang & Josiane Mothe, »Predicting Information Diffusion on Twitter – Analysis of Predictive Features«, in: Journal of Computational Science, Jg. 28 (2018), S. 257–264.
[15] Siehe Hiroaki Chiba-Okabe & Joshua B. Plotkin, »Social Learning with Complex Contagion«, in: Proceedings of the National Academy of Sciences, Nr. 49, Jg. 121 (2024), e2414291121.
[16] Siehe Donghee Shin & Emily Y. Shin, »Cascading Falsehoods. Mapping the Diffusion of Misinformation in Algorithmic Environments«, in: AI & Society, Pre-Print (31. Aug. 2025), online abrufbar hier.
[17] Siehe Kelvin K. King & Bin Wang, »Diffusion of Real versus Misinformation during a Crisis Event. A Big Data-Driven Approach«, in: International Journal of Information Management, Jg. 71 (Aug. 2023), 102390.
[18] Siehe Saifuddin Ahmed u.a., »Social Media News Use Amplifies the Illusory Truth Effects of Viral Deepfakes. A Cross-National Study of Eight Countries«, in: Journal of Broadcasting & Electronic Media, Nr. 5, Jg. 68 (2024), S. 778–805.
[19] Siehe Maria Glenski, Tim Weninger & Svitlana Volkova, »Propagation From Deceptive News Sources Who Shares, How Much, How Evenly, and How Quickly?«, in: IEEE Transactions on Computational Social Systems, Nr. 4, Jg. 5 (2018), S. 1071–1082.
[20] Siehe Andrew Guess, Jonathan Nagler & Joshua Tucker, »Less than You Think. Prevalence and Predictors of Fake News Dissemination on Facebook«, in: Science Advances, Nr. 1, Jg. 5 (2019), eaau4586.
[21] Siehe Keller u.a.
[22] Siehe Christopher Barrie & Alexandra Siegel, »Kingdom of Trolls? Influence Operations in the Saudi Twittersphere«, in: Journal of Quantitative Description: Digital Media, Jg. 1 (2021), S. 1-41; Olga Boichak u.a., »Not the Bots You Are Looking For. Patterns and Effects of Orchestrated Interventions in the U.S. und German Elections«, in: International Journal of Communication, Jg. 15 (2021), S. 814–839; Gregory Eady u.a., »Exposure to the Russian Internet Research Agency Foreign Influence Campaign on Twitter in the 2016 US Election and Its Relationship to Attitudes and Voting Behavior«, in: Nature Communications, Nr. 1, Jg. 14 (2023), 62; sowie Mitchell Hobbs u.a., »Turf Wars. Using Social Media Network Analysis to Examine the Suspected Astroturfing Campaign for the Adani Carmichael Coal Mine on Twitter«, in: Journal of Public Affairs, Nr. 2, Jg. 20 (2020), e2057.
[23] Siehe Boichak u.a.
[24] Siehe Samantha Bradshaw, Renée DiResta & Carly Miller. »Playing Both Sides. Russian State-Backed Media Coverage of the #BlackLivesMatter Movement«, in: The International Journal of Press/Politics, Nr. 4, Jg. 28 (2023), S. 791–817.
[25] Siehe Glenski, Weninger & Volkova.
[26] Siehe Karen Yourish, Larry Buchanan & Derek Watkins, »A Timeline Showing the Full Scale of Russia’s Unprecedented Interference in the 2016 Election, and Its Aftermath«, in: The New York Times, 20. Sept. 2018, online hier.
[27] Siehe Eady u.a.
[28] Siehe Emilio Ferrara, »Disinformation and Social Bot Operations in the Run up to the 2017 French Presidential Election«, in: First Monday, Nr. 8, Jg. 22 (2017).
[29] Siehe Hannah Schimmele & Richard Schwenn, »Die Causa Brosius-Gersdorf«, auf: Polisphere, 5. Aug. 2025, online hier.
[30] Siehe Chris J. Vargo, Lei Guo & Michelle A. Amazeen, »The Agenda-Setting Power of Fake News. A Big Data Analysis of the Online Media Landscape from 2014 to 2016«, in: New Media & Society, Nr. 5, Jg. 20 (2018), S. 2028–2049.
[31] Siehe J. Hofmann.
[32] Siehe z.B. Miriam J. Metzger u.a., »From Dark to Light. The Many Shades of Sharing Misinformation Online«, in: Media and Communication, Nr. 1, Jg. 9 (2021), S. 134–143; sowie Mathias Osmundsen u.a., »Partisan Polarization Is the Primary Psychological Motivation behind Political Fake News Sharing on Twitter«, in: American Political Science Review, Nr. 3, Jg. 115 (2021), S. 999–1015.
[33] Siehe Bence Bago u.a., »Emotion May Predict Susceptibility to Fake News but Emotion Regulation Does Not Seem to Help«, in: Cognition and Emotion, Nr. 6, Jg. 36 (2022), S. 1166–1180; sowie William J. Brady u.a., »Emotion Shapes the Diffusion of Moralized Content in Social Networks«, in: Proceedings of the National Academy of Sciences, Nr. 28, Jg. 114 (2017), S. 7313–7318.
[34] Siehe Nicolas Pröllochs, Dominik Bär & Stefan Feuerriegel, »Emotions Explain Differences in the Diffusion of True vs. False Social Media Rumors«, in: Scientific Reports, Nr. 1, Jg. 11 (2021), 22721.
[35] Siehe Bago u.a.; sowie Brady u.a.
[36] Siehe Gizem Ceylan, Ian A. Anderson & Wendy Wood, »Sharing of Misinformation Is Habitual, Not Just Lazy or Biased«, in: Proceedings of the National Academy of Sciences, Nr. 4, Jg. 120 (2023), e2216614120.
[37] Siehe Christy Galletta Horner u.a., »Emotions. The Unexplored Fuel of Fake News on Social Media«, in: Alan R. Dennis, Dennis F. Galletta, and Jane Webster (Hg.), Fake News on the Internet (London: Routledge, 2023), S. 147-174.
[38] Siehe Sophie Morosoli u.a., »Identifying the Drivers Behind the Dissemination of Online Misinformation. A Study on Political Attitudes and Individual Characteristics in the Context of Engaging With Misinformation on Social Media«, in: American Behavioral Scientist, Nr. 2, Jg. 69 (2025), S. 148–167.
[39] Siehe Gordon Pennycook & David G. Rand, »Lazy, Not Biased. Susceptibility to Partisan Fake News Is Better Explained by Lack of Reasoning than by Motivated Reasoning«, in: Cognition, Jg. 188 (Juli 2019), S. 39–50; sowie Michal Piksa u.a., »Cognitive Processes and Personality Traits Underlying Four Phenotypes of Susceptibility to (Mis)Information«, in: Frontiers in Psychiatry, Jg. 13 (Juni 2022), 912397.
[40] Siehe Edda Humprecht, »The Role of Trust and Attitudes toward Democracy in the Dissemination of Disinformation – a Comparative Analysis of Six Democracies«, in: Digital Journalism Nr. 5, Jg. 13 (2025), S. 931–948.
[41] Siehe Metzger u.a.
[42] Siehe Mansell u.a.
[43] Siehe Judit Bayer u.a., Disinformation and Propaganda. Impact on the Functioning of the Rule of Law in the EU and Its Member States. 2021 Update (European Parliament, 2021); sowie Marlene Mauk & Max Grömping, »Online Disinformation Predicts Inaccurate Beliefs About Election Fairness Among Both Winners and Losers«, in: Comparative Political Studies, Nr. 6, Jg. 57 (2024), S. 965–998.
[44] Siehe Andreas Jungherr & Adrian Rauchfleisch, »Negative Downstream Effects of Alarmist Disinformation Discourse. Evidence from the United States«, in: Political Behavior, Nr. 4, Jg. 46 (2024), S. 2123–2143.
[45] Siehe Josh A. Goldstein u.a., »Generative Language Models and Automated Influence Operations. Emerging Threats and Potential Mitigations«, in: arXiv (2023), arXiv:2301.04246; sowie Raphael Meier, »LL
[46] Siehe ebd.