Verbreitung und Auswirkungen von Desinformation im Kontext von Online-Plattformen (Nr. 546) © Photo Credit: Skórzewiak - stock.adobe.com

Verbreitung und Auswirkungen von Desinformation im Kontext von Online-Plattformen (Nr. 546)

Der Diskussionsbeitrag analysiert die Verbreitungsdynamiken und aktuelle Entwicklungen in der Desinformation. Die Studie evaluiert vielfältige Bekämpfungsstrategien im internationalen Vergleich und motiviert einen Fokus auf hybride und strukturelle Eingriffe. Um den Informationsraum nachhaltig zu stärken, rücken zunehmend die Architektur und die ökonomischen Anreize der Plattformen in den Fokus.

Die Studie untersucht die systemischen Ursachen, Verbreitungsmechanismen und Gegenstrategien von Desinformation auf Online-Plattformen. Jenseits der reinen Inhaltsprüfung analysiert sie, wie ökonomische Anreizstrukturen im Ad-Tech-Markt und engagement-basierte Algorithmen die Verbreitung polarisierender Inhalte systemisch begünstigen.

Ein zentraler Befund ist, dass Desinformation keine zufällige Anomalie, sondern eine profitable Externalität der Aufmerksamkeitsökonomie darstellt. Das Geschäftsmodell der Plattformen priorisiert emotionalisierende Inhalte, während das intransparente Ökosystem der programmatischen Werbung unbeabsichtigt Desinformationsakteure refinanziert. Technologische Trends wie generative KI (inkl. Deepfakes, aber auch „AI Slop“) und koordinierte Cross-Platform-Strategien verschärfen diese Dynamik durch sinkende Produktionskosten und Umgehung von Moderationsfiltern. Psychologisch wird die Anfälligkeit der Nutzer weniger durch Wissensdefizite als durch Mechanismen wie „Identity-Protective Motivated Reasoning“ und den passiven „News-Finds-Me“-Effekt verstärkt, was reale Schäden bis hin zu stochastischem Terrorismus begünstigen kann.

Hinsichtlich der Bekämpfungsstrategien zeigt die Evaluation von Ansätzen wie Prebunking, Friktion und Community Notes deren Grenzen bei Skalierbarkeit, Konsensfindung und möglichen Negativeffekten („Skeptizismus-Paradoxon“) auf. Im regulatorischen Teil kontrastiert die Arbeit das prozessorientierte, risikobasierte Modell des EU Digital Services Act (DSA) mit repressiven, inhaltszentrierten „Fake-News“-Gesetzen in anderen geopolitischen Kontexten. Abschließend leitet die Studie die Notwendigkeit ab, den Fokus von individueller Medienkompetenz auf strukturelle Eingriffe zu verlagern, um die Monetarisierung von Desinformation zu unterbinden und algorithmische Transparenz durchzusetzen.