Bauordnung fürs Netz
Plattformmaßnahmen gegen Desinformation im Zeichen des DSA
»More speech, fewer mistakes«. Diesem Credo folgend, kündigte Mark Zuckerberg im Januar 2025 an, dass die Plattformen von Meta in den USA zukünftig nicht mehr mit unabhängigen Faktencheck-Organisationen zusammenarbeiten. Stattdessen sollten sie sich mehrheitlich auf Community Notes stützen. Dabei nahm das Unternehmen Bezug auf die Plattform X als positives Beispiel einer Community-gestützten Moderation.[1] Da die Abwendung vom System der Faktenchecks mit dem Beginn der zweiten Amtszeit Donald Trumps (ebenfalls im Januar 2025) zusammenfiel, wurde die Entscheidung von vielen als politisch motiviert gedeutet.[2] Auch in der Vergangenheit hatte sich die Inhaltsmoderation auf den Meta-Plattformen bereits an politischen Kräfteverhältnissen ausgerichtet, mitunter in Reaktion auf öffentliche Kritik. So versprach Meta bereits 2016 solche Microtargeting-Praktiken zu unterbinden, wie sie etwa das Datenanalyse-Unternehmen Cambridge Analytica anwendete, um auf die US-Präsidentschaftswahlen Einfluss zu nehmen.[3]
Inhaltsmoderation ist immanent politisch, da politisches Leben heute maßgeblich im Netz stattfindet.[4] Wie Moderationsregime ausgestaltet sein müssen, um sowohl dem Schutz der NutzerInnen als auch dem Recht auf freie Meinungsäußerung gerecht zu werden, wird breit diskutiert. Dies zeigt sich auch an den Diskussionen über Desinformation: Von manchen wird sie als risikoreich für die Demokratie eingeordnet,[5] andere sehen in der Aufregung darüber Ansätze einer moralischen Panik.[6] Der folgende Text versucht zu klären, wie Desinformation speziell von Online-Plattformen und Suchmaschinen verstanden wird und welche Regeln sie dagegen erlassen haben bzw. mit welchen Richtlinien sie dagegen vorgehen.
Dieser Recap fasst die Ergebnisse eines Beitrags zusammen, der von der Autorin in einer Fachzeitschrift veröffentlicht wurde: Rita Gsenger »Platform Governance Under the Digital Services Act. A Perspective on Disinformation«, in: Information, Communication & Society (2025), S. 1–19, DOI: 10.1080/1369118X.2025.2590561.
Desinformation im DSA
Die Europäische Union (EU) verabschiedete im Februar 2024 den Digital Services Act (DSA), um ein »sicheres, berechenbares und vertrauenswürdiges Online-Umfeld« (ErwG. 9) zu schaffen. Die Verordnung gibt Regelungen zur Moderation von illegalen und risikoreichen Online-Inhalten vor. Plattformen, die in der EU tätig sind, werden so verpflichtet, regelmäßig Bericht über risikoreiche Inhalte zu erstatten und gegen diese vorzugehen (Art. 34, 35). Diese Regelung betrifft in erster Linie sehr große Online-Plattformen (VLOPs – very large online platforms) und Suchmaschinen (VLOSEs – very large online search engines). VLOPs und VLOSEs (oft Intermediäre genannt) müssen mindestens 45 Millionen monatlich aktiven NutzerInnen in der EU aufweisen, um als besonders risikoreich zu gelten (Art. 33(1)). Die EU-Kommission hat eine Liste mit solchen Intermediären veröffentlicht, die zuvor eine entsprechend hohe Zahl an NutzerInnen gemeldet hatten. Die Liste wird stets erweitert. So wurde im Januar 2026 auch WhatsApp als VLOP klassifiziert.[7]
Die im DSA angeführten Risiken umfassen unter anderem: illegale Inhalte, Gefahren für die Ausübung von Grundrechten, geschlechtsspezifische Gewalt sowie Inhalte mit negativen Auswirkungen auf die öffentliche Gesundheit, »die gesellschaftliche Debatte[,] auf Wahlprozesse und die öffentliche Sicherheit« (Art. 34 Abs. 1 lit. c). Dabei kann Desinformation, laut der Verordnung, zu diesen systemischen Risiken beitragen (ErwG. 84). Desinformation an sich wird nicht zu den illegalen Inhalten gezählt und ist bezüglich ihrer Wirkung im Online-Raum ein durchaus umstrittenes Konzept, nicht zuletzt auch deshalb, weil bei ihrer Regulierung diffizile Abwägungen mit Blick auf die Meinungsfreiheit vorgenommen werden müssen.
Die verschiedenen Rechtssysteme gehen bisher sehr unterschiedlich mit Online-Inhalten um, die »awful, but lawful« sind.[8] So verlangt die berüchtigte Section 230 des amerikanischen Communication Decency Act zum Beispiel überhaupt nicht, dass Plattformen Inhalte entfernen.[9] Die EU hingegen versucht sich in einem restriktiveren Ansatz, der den Intermediären Vorgaben macht und zugleich auf deren Selbstregulierung und Kooperation setzt. Obwohl sich der DSA in den Erwägungsgründen[10] auch direkt auf Desinformation bezieht, definiert er diese nicht eindeutig. Die Verordnung stellt jedoch fest, dass Desinformation die genannten Risiken beeinflussen könne (ErwGr. 88). Vor dem Hintergrund des regulativen Drucks durch die EU auf Online-Plattformen stellt sich die Frage: Welche (unterschiedlichen) Regeln gegen Desinformation geben sich diese in Zeiten des DSA? Und weiter: Wie wird die Verbreitung solcher Inhalte durch die Intermediäre sanktioniert?
Desinformation als systemisches Risiko
Das Konzept »Desinformation« wird seit etwa zehn Jahren intensiv diskutiert, ist aber umstritten, denn die tatsächlichen Auswirkungen von Desinformation sind schwer nachzuweisen.[11] Die Europäische Kommission versteht darunter »nachweislich falsche oder irreführende Informationen, die mit dem Ziel des wirtschaftlichen Gewinns oder der vorsätzlichen Täuschung der Öffentlichkeit konzipiert, vorgelegt und verbreitet werden und öffentlichen Schaden anrichten können.« Man geht davon aus, dass sie das Vertrauen in Institutionen und Medien mindere und die Demokratie schädige. Die Kommission argumentiert konkret, dass durch Desinformation die Fähigkeit, informierte Entscheidungen zu treffen, beeinträchtigt werden könne.[12] Man bezieht sich dabei auf zwei Analyseebenen, um den potentiellen Schaden (und somit die Notwendigkeit der Regulierung eines Online-Inhalts) einzuschätzen: der Inhalt selbst und dessen Verbreitung. Die Verbreitung eines Inhalts auf sehr großen Plattformen, wie Facebook oder TikTok hat größeres Potential, Schaden anzurichten, da dieser mehr Menschen erreichen kann.[13]
Da die Definition der Kommission sehr allgemein ist, wurde für die Analyse ein Kodierbuch entwickelt, das sich an den Kategorien von Desinformation orientiert, wie sie von Eleni Kapantai u.a. formuliert wurden.[14] Dabei wird das Phänomen in unterschiedliche Teilkategorien ausdifferenziert, um die verschiedenen potentiell schädigenden Arten von Online-Inhalten besser zu verstehen. In der Analyse werden somit Kategorien wie irreführende Information, Manipulation (z.B. Spam), Verschwörungstheorien oder Hoaxes miteinbezogen und grob unter dem Desinformationsbegriff gefasst. Dies erlaubt es, auf Basis der Inhalte die Regeln zu erfassen, da sich die Absicht der verbreitenden Akteure nur vermuten lässt. Motive können sowohl ideologischer Art sein oder auch einem Profitinteresse folgen. Außerdem kann man davon ausgehen, dass die Inhalte unterschiedliche Grade an Faktizität aufweisen und nicht alle falsifizierbar sind. So haben zum Beispiel Verschwörungstheorien oft wahre Elemente.[15]
Nicht alle Plattformen bezeichnen Desinformation als solche. Manche umschreiben diese oder haben sehr detailreiche Regeln bezüglich bestimmter Inhalte, die beispielsweise als Verschwörungstheorien oder falsche Informationen über Impfungen eingestuft werden. All diese Kategorien stellen allerdings Untergruppen von Desinformation bzw. Desinformationskampagnen dar. So können auch andere Informationsarten wie zum Beispiel Verschwörungstheorien zur Verbreitung von Desinformation und damit auch zur Entfaltung von Online-Risiken beitragen.
Was sind eigentlich Online-Risiken?
Online-Risiken festzustellen und genau zuzuordnen, ist herausfordernd. Der DSA gibt in Artikel 34 eine Liste risikoreicher Inhalte an, die zum Teil in den Erwägungsgründen noch genauer ausgeführt werden. Dabei bezieht sich das Gesetz auf »systemische Risiken« und nimmt einen risikobasierten Ansatz ein.[16] Diesen Ansatz verfolgt die Europäische Kommission in mehreren Digitalregulierungen, wie zum Beispiel auch mit der Datenschutzgrundverordnung oder der KI-Regulierung. Dabei ist unter Risiko die Kombination der Wahrscheinlichkeit eines Schadenseintritts mit der Größe der Konsequenzen eines solchen zu verstehen. In diesen Gesetzen werden Konsequenzen und Regelungen je nach Risiko abgewogen.[17] Wie bereits ausgeführt, werden im DSA sehr große Plattformen und Suchmaschinen als risikoreicher eingeschätzt und müssen somit strengeren Regeln folgen.
Konkret zählt Artikel 34(1) des DSA vier Gruppen von Inhalten auf, die ein systemisches Risiko, also ein Risiko auf gesamtgesellschaftlicher Ebene, darstellen können. Dazu zählen: die »Verbreitung rechtswidriger Inhalte […]« (lit. a), die »etwaige tatsächliche oder vorhersehbare nachteilige Auswirkungen auf die Ausübung der Grundrechte …« (lit. b), »alle tatsächlichen oder absehbaren nachteiligen Auswirkungen auf die gesellschaftliche Debatte und auf Wahlprozesse und die öffentliche Sicherheit« (lit. c) und »alle tatsächlichen oder absehbaren nachteiligen Auswirkungen in Bezug auf geschlechtsspezifische Gewalt, den Schutz der öffentlichen Gesundheit und von Minderjährigen sowie schwerwiegende nachteilige Folgen für das körperliche und geistige Wohlbefinden einer Person« (lit. d).
Desinformation wird hier nicht explizit genannt, jedoch stellt der Gesetzgeber in Erwägungsgrund 84 fest, dass »sich diese Anbieter auch auf die Informationen konzentrieren, die zwar nicht rechtswidrig sind, aber zu den in dieser Verordnung ermittelten systemischen Risiken beitragen«. Diese »können beispielsweise auf die nicht authentische Nutzung des Dienstes, wie die Einrichtung von Scheinkonten, die Nutzung von Bots oder die irreführende Nutzung eines Dienstes und andere automatisierte oder teilautomatisierte Verhaltensweisen zurückzuführen sein, die zu einer schnellen und umfangreichen öffentlichen Verbreitung von Informationen führen können, die rechtswidrige Inhalte darstellen oder mit den Geschäftsbedingungen einer Online-Plattform oder einer Online-Suchmaschine unvereinbar sind und zu Desinformationskampagnen beitragen« (ErwG. 84). Anti-Desinformationsmaßnahmen sollen hierbei vor allem die demokratische Meinungs- und Willensbildung und insb. Wahlen, die öffentliche Sicherheit und letztlich die öffentliche Gesundheit und das Wohlbefinden schützen. Der Schutz des Wohlbefindens betrifft vor allem besonders vulnerable Bevölkerungsteile, wie z.B. Minderjährige.[18]
Analytisches Vorgehen
Um den genannten Risiken zu begegnen, sollten sehr große Plattformen und Suchmaschinen gemäß des DSA ihre Empfehlungssysteme, ihre Werbesysteme und auch die Anpassung der Nutzungsbedingungen überprüfen und anpassen. Welche Regeln haben die Plattformen selbst also konkret entwickelt, um Desinformation zu begegnen und ihr entgegenzuwirken? Und wie wird dieses Konzept dort überhaupt aufgefasst? Dafür wurden die Nutzungsbedingungen und Community Guidelines von 27 Suchmaschinen und Plattformen im europäischen Raum untersucht.
Einbezogen in die Analyse wurden nicht nur sehr große Plattformen und Suchmaschinen, sondern es wurden auch kleinere, aber lokal einflussreiche Plattformen als Vergleichsgegenstand herangezogen. Die meisten VLOPs und VLOSEs, wie z.B. Instagram, TikTok, Amazon und Google Search sind im Datensatz vertreten. Allerdings wurden nach dem Abschluss der Datensammlung und -analyse noch weitere Plattformen als solche eingestuft, die somit nicht mehr erfasst werden konnten.
Für die Analyse wurden die Intermediäre in die Kategorien Soziale Medien, Online-Marktplätze und Suchmaschinen eingeteilt, wobei die ersten beiden VLOPs und letztere VLOSEs umfassen. Analysiert wurden diese dann mithilfe des genannten Kodierbuchs, das Desinformationskategorien, Regeln, Sanktionen und Prozesse der Durchsetzung beinhaltet. Damit sollte herausgefunden werden, welche Desinformationsinhalte unerwünscht sind, welche Regeln es gegen unerwünschte Inhalte gibt und wie diese Regeln angewendet werden.
Was wurde wie geregelt?
Die Analyse zeigt, dass Social-Media-Plattformen die weitreichendsten Regelwerke gegen Desinformation aufgestellt haben und diese auch detailliert aufschlüsseln. Dabei werden vor allem irreführende Inhalte und Manipulation als Verstöße kategorisiert, aber auch sogenannter Spam. Dieser wurde auch in der Wissenschaft als Problem erkannt, da er oft mit Malware oder Phishing einhergeht.[19] Spam nimmt vor allem in Form von AI-Slop eine neue Gestalt an, die auch für Desinformation von Bedeutung sein kann. Die Auswirkung von KI-generierten Inhalten auf die Verbreitung von Desinformation ist momentan noch unklar. Die Sanktionen, die laut diesen Regeln am häufigsten Anwendung finden, sind top down, wie etwa die Löschung von Inhalten oder Benutzerkonten. Andere Maßnahmen sind die Reduzierung der Sichtbarkeit von Inhalten oder die temporäre Sperrung von NutzerInnen. Weniger häufig werden Bottom-Up-Maßnahmen angewendet, etwa wenn ein User über sein Fehlverhalten aufgeklärt oder die Inhaltsmoderation an ihn übertragen wird.
Klicken Sie auf den unteren Button, um den Inhalt von Flourish zu laden.
Sanktionsmaßnahmen nach Inhaltstyp.
Der eingangs erwähnte Vorstoß von Meta, NutzerInnen stärker beim Umgang mit Desinformation einzubinden, ist grundsätzlich zu begrüßen. Dies wird allerdings eine plattformseitige, durchgängige Moderation von Inhalten zukünftig kaum ersetzen können. Desinformation ist schwierig zu moderieren, da stets eine genaue Abwägung mit der Meinungsfreiheit erfolgen muss. Die Analyse zeigt die Hauptcluster von Desinformation in Plattform-Regelwerken auf: irreführende und gefälschte Inhalte, Pseudowissenschaft und Verschwörungstheorien sowie Manipulation werden am häufigsten genannt. Irreführende und gefälschte Inhalte beziehen sich dabei häufig auf den Klimawandel, bewaffnete Konflikte, Wahlen, Wahlergebnisse und Bürgerbeteiligungen. Außerdem spielt hier das Verhalten von NutzerInnen eine Rolle, die andere zu Profitzwecken manipulieren, insbesondere in Form von Spam.
Ebenso zahlreich werden Pseudowissenschaften und Verschwörungstheorien von den Plattformen als Problem genannt, insbesondere solche, die irreführende Informationen bezüglich der Covid-19-Pandemie, Abnehmprodukten oder Wunderkuren zum Inhalt haben. Der Sache gemäß treten diese vor allem auf Produktmarktplätzen auf. Auch Desinformation bezüglich Impfungen und Inhalte im Zusammenhang mit der QAnon-Verschwörungstheorie werden genannt. Die Plattform YouTube und die Meta-Plattformen verfügen dabei über die detailliertesten Regeln zu diesen Inhalten.
Ausblick
Abschließend ist anzumerken, dass die Untersuchung der Regelwerke keinen Aufschluss über deren Durchsetzung geben kann. Sie zeigt jedoch, worauf die Plattformen ein besonderes Augenmerk legen und wie die jeweiligen Sachverhalte von ihnen eingeordnet werden. Im Ergebnis entsteht dabei der Eindruck, dass die Debatten um Desinformation und nicht zuletzt auch der politische Druck auf große Online-Plattformen (z.B. nach der Befragung Zuckerbergs vor dem US-Kongress 2018) durchaus die Wirkung zeitigte, dass sich diese in die Bemühungen zur Regulierung von Desinformation einfügten.
Nutzungsbedingungen und Community Guidelines werden sehr häufig angepasst, was deren Untersuchung schwierig macht. Die Untersuchung ist daher lediglich eine Momentaufnahme aus 2023 – vor dem Inkrafttreten, jedoch nach der Veröffentlichung des Regulierungsvorschlags des DSA. Dennoch zeigt sie, wie Plattformen auf eine große Breite an potentiell risikoreichen Inhalten reagieren, die es oft nicht in die mediale Berichterstattung schaffen. Außerdem liefert sie Hinweise darauf, wie Plattformen auf politische Gegebenheiten reagieren. Dennoch ist mehr Forschung über die Veränderungen der Plattformregeln und deren Durchsetzung nötig, denn der digitale Bereich entwickelt sich bekanntermaßen sehr schnell.[20]
Rita Hermann-Gsenger ist wissenschaftliche Mitarbeiterin am Weizenbaum Institut Berlin und promoviert am Institut für Publizistik- und Kommunikationswissenschaften der FU Berlin. Ihre Schwerpunkte liegen auf evidenzbasierter Plattformregulierung, Desinformation und Content Governance.
Fußnoten
[1] Siehe Joel Kaplan, »More Speech and Fewer Mistakes«, auf: Meta, 7. Jan. 2025, online hier.
[2] Siehe Katie Paul, Supantha Mukherjee & Deborah M. Sophia, »Meta Shelves Fact-Checking in Policy Reversal ahead of Trump Administration«, auf: Reuters, 7. Jan. 2025, online hier.
[3] Siehe David Smith, »Mark Zuckerberg Vows to Fight Election Meddling in Marathon Senate Grilling«, in: The Guardian, 11. Apr. 2018, online hier.
[4] Siehe Robert Gorwa, The Politics of Platform Regulation. How Governments Shape Online Content Moderation (Oxford: Oxford University Press, 2024).
[5] Siehe Spencer McKay & Chris Tenove, »Disinformation as a Threat to Deliberative Democracy«, in: Political Research Quarterly, Nr. 3, Jg. 74 (2021), S. 703–717.
[6] Vgl. Sacha Altay, Manon Berriche & Alberto Acerbi, »Misinformation on Misinformation. Conceptual and Methodological Challenges«, in: Social Media + Society (2023), S. 1–13.; Claire Wardle, »Misunderstanding Misinformation«, in: Issues in Science and Technology, Nr. 3, Jg. 29 (2023), S. 38–40.
[7] Siehe Europäische Kommission, »Supervision of the Designated Very Large Online Platforms and Search Engines Under«, auf: Shaping Europe’s Digital Future, 10. März 2026, online hier.
[8] Daphne Keller, »Lawful but Awful? Control over Legal Speech by Platforms, Governments, and Internet Users«, auf: The University of Chicago Law Review Online, Juni 2022, online hier.
[9] Siehe Daphne Keller, »Amplification and Its Discontents. Why Regulating the Reach of Online Content Is Hard«, auf: Knight First Amendment Institute at Columbia University, Juni 2021, online hier.
[10] Erwägungsgründe sind Begründungen, die einem Rechtsakt vorangestellt werden, um zu erklären, was zu den im Rechtsakt stehenden Normen geführt hat. Diese können somit unterstützend für die Interpretation der Normen wirken. Siehe Wikipedia, »Erwägungsgrund«, auf: Wikipedia, 26. Mai 2025, online hier.
[11] Siehe Sacha Altay, Manon Berriche & Alberto Acerbi, »Misinformation on Misinformation. Conceptual and Methodological Challenges«, in: Social Media + Society (2023), S. 1–13; Franziska Martini & Wyn Brodersen, »Demokratiegefährdung durch Desinformation? Rückblick auf 10 Jahre Forschung in einem umstrittenen Feld«, in: Institut für Demokratie und Zivilgesellschaft (Hg.), Wissen schafft Demokratie, Bd. 18, Schwerpunkt: Demokratiegefährdung online (Jena: IDZ, 2025), S. 18–33, auch online hier.
[12] Siehe Europäische Kommission, Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Tackling Online Disinformation: A European Approach, hgg. von Europäische Kommission (Brüssel 2018, S. 4), online abrufbar hier.
[13] Siehe Europäische Kommission, Digital Services Act: Application of the Risk Management Framework to Russian Disinformation Campaigns, hgg. v. Directorate-General for Communications Networks, Content and Technology (Luxembourg: Publications Office of the European Union, 2023), online abrufbar hier.
[14] Siehe Eleni Kapantai u.a., »A Systematic Literature Review on Disinformation. Toward a Unified Taxonomical Framework«, in: New Media & Society, Nr. 5, Jg. 23 (2021), S. 1301–1326.
[15] Siehe Michael Butter, Nichts ist wie es scheint (Frankfurt: Suhrkamp, 2023), S. 52..
[16] Siehe Zohar Efroni, »The Digital Services Act. Risk-Based Regulation of Online Platforms«, auf: Internet Policy Review. Nov. 2021, online hier.
[17] Siehe Giovanni De Gregorio & Pietro Dunn, »The European Risk-Based Approaches. Connecting Constitutional Dots in the Digital Age«, in: Common Market Law Review, Nr. 2, Jg. 59 (2022), S. 473–500.
[18] Vgl. Alexander Peukert, »Desinformationsregulierung in der EU – Überblick und offene Fragen«, in: JuristenZeitung, Nr. 7, Jg. 78 (2023), S. 278–286.
[19] Siehe Chris Grier u.a., »@spam: The Underground on 140 Characters or Less«, in: Proceedings of the 17th ACM Conference on Computer and Communications Security (2010), S. 27–37.
[20] Das Platform Governance Archive der Universität Bremen bietet die Möglichkeit, eine Übersicht über die Veränderung von Plattformregeln zu bekommen, und das Archiv veröffentlicht auch Kurzanalysen über wichtige Veränderung. Siehe »Platform Governance Archive. Major Global Social Media Services«, auf: Open Terms Archive, kein Datum, online hier).