Handy mit Social Media Apps in Händen

© Cottonbro Studios Pexels

Das Netz der Misinformation

Überblick

  • Die Verbreitung von Misinformation hat das Potential, demokratische Prozesse zu schwächen und das Vertrauen in faktengeprüfte Informationen zu verringern.
  • Ein interdisziplinäres Team von der Uni Wien und dem Complexity Science Hub untersucht, wie Misinformation sich in den sozialen Medien verbreitet, welche Rolle Emotionen dabei spielen, und was dagegen getan werden kann.
  • Dabei werden einerseits riesige Datenmengen an Tweets analysiert, andererseits wird experimentell getestet, welche Interventionen die Verbreitung von Misinformation reduzieren könnten.

In einem interdisziplinären Projekt mit dem Complexity Science Hub untersuchen die Kommunikationswissenschafterinnen Jula Lühring und Annie Waldherr von der Universität Wien das Phänomen Misinformation aus verschiedenen Perspektiven: Zum einen analysieren sie, wie sich Misinformation in sozialen Medien verbreitet, zum anderen untersuchen sie, welche psychologischen Interventionen verhindern, dass Nutzer*innen falschen Informationen trauen und sie weiterverbreiten. Darüber hinaus erforscht das interdisziplinäre Team mit Computersimulationen, inwiefern Änderungen in den Empfehlungsalgorithmen der Social-Media-Plattformen Auswirkungen auf die Verbreitung von Falschnachrichten haben können.

Gemeinsam mit Hannah Metzler, David Garcia und Apeksha Shetty vom Complexity Science Hub untersuchen Jula Lühring und Annie Waldherr im WWTF-geförderten Projekt „Emotional Misinformation“ (EMOMIS) verschiedene Aspekte rund um Misinformation auf sozialen Medien. Während Jula Lühring mithilfe großer Datensätze unter die Lupe nimmt, wie und von wem Misinformation im deutschsprachigen Raum via Twitter verbreitet wurde, testet Apeksha Shetty, wie psychologische Interventionen in Form von Social-Media-Inhalten auf individuelle Nutzer*innen wirken. Das Team arbeitet auch mit einem Simulationsmodell einer Social Media Plattform, um systemische Interventionsansätze zu entwickeln.

Misinformation in sozialen Medien

Im Großen und Ganzen zeigen die bisherigen Ergebnisse, dass gesamtgesellschaftlich betrachtet nur eine kleine, aber sehr laute Minderheit Falschnachrichten übernehmen und diese in sozialen Medien aktiv verbreiten. „Das sind oft sogenannte ‚heavy user‘, Menschen, die online sehr aktiv sind und Misinformation aus starken politischen Überzeugungen heraus teilen“, erklärt Jula Lühring, Projektmitarbeiterin an der Uni Wien. In der Forschung verstehe man das Phänomen Misinformation daher als Teil von gesellschaftlichen Polarisierungsprozessen. Es gibt auch Politiker*innen, die gezielt Falschnachrichten teilen, um ihre politischen Ziele zu verfolgen, wie das Beispiel des Vizes von Trump, J.D. Vance zeigt. Er gab zum Beispiel offen zu, dass er Falschinformationen über haitianische Einwander*innen in den USA verbreitete, obwohl er wusste, dass diese nicht stimmen. „Dieses Verhalten wurde damit argumentiert, dass es einem höheren Zweck, und zwar dem politischen Erfolg Trumps dient“, erläutert Projektleiterin Annie Waldherr.

Die Beobachtung, dass vor allem eine laute Minderheit und extreme Politiker*innen Falschnachrichten verbreiten, deckt sich mit den von Jula Lühring erhobenen Daten. „Hier spielen Emotionen eine wichtige Rolle: Wut wird ausgedrückt, um sich von anderen abzugrenzen, oder aber um sich einer Überzeugung zuzuordnen“, so Lühring. Sie habe sich Tweets im deutschsprachigen Raum über eine Zeitspanne von 2 Jahren angesehen. Konkret sind das rund 19 Millionen Tweets. Dabei betrachtet sie auch, welche deutschsprachigen Nachrichten geteilt werden und wie hoch dabei der Anteil von Misinformation ist. Mit der Analyse von Kommentaren wird untersucht, ob Misinformation in Reaktionen online besonders starke Emotionen hervorruft. „User*innen, die Falschinformation teilen, sind oft Personen, die sehr frustriert sind, etwa stark von ökonomischen Ungleichheiten betroffen sind und gesellschaftspolitischen Entwicklungen nicht folgen können. Zudem haben diese User*innen oft extreme links- oder rechtspolitische Ansichten, wobei im rechten Spektrum deutlich häufiger Misinformation verbreitet wird“, so die Kommunikationswissenschafterin weiter. Grundsätzlich findet das Forschungsteam, dass unglaubwürdige Nachrichtenseiten eine geringere Reichweite haben, insbesondere im Vergleich zu glaubwürdigen Quellen. Dennoch führt Misinformation zu offenbar wütenderen Diskussionen in den Kommentarspalten — unabhängig davon wie emotional aufgeladen die Nachrichten selbst sind.

Testen von Interventionen

Ein zweiter großer Teil des Projektes ist das Testen verschiedener Interventionen, um Menschen dabei zu unterstützen, eigene Einstellungen in Frage zu stellen, die nicht auf Evidenz basieren. Hierbei gibt es sowohl Ansätze, die sich auf das Vermitteln von Information und Fakten fokussieren, als auch solche, die die sozialen Aspekte von Einstellungen berücksichtigen. 

Ansätze wie Faktenchecks und Faktenlabels auf Social Media, die weit verbreitet sind, lassen leider soziale Gründe für unsere Einstellungen und Glaubensmuster außer Acht. Viele Einstellungen von Menschen hängen stark mit unserer Gruppenzugehörigkeit zusammen: mit welchen sozialen und politischen Gruppen wir uns identifizieren, oder welche Werte und Einstellungen die Menschen um uns herum vertreten. Solche Faktoren haben einen starken Einfluss darauf, wem wir vertrauen, und welche neuen Informationen wir nutzen und weiter teilen. „Menschen ändern ihre auf Misinformation beruhenden Überzeugungen daher kaum allein aufgrund korrigierender Information, wenn diese ihrer Weltsicht und Gruppenzugehörigkeit widersprechen“, so Waldherr.

Apeksha Shetty vom Complexity Science Hub hat deswegen zum Beispiel eine Intervention entwickelt, die die soziale Identität und Gruppenzugehörigkeit von Menschen berücksichtigt. Sie zielt darauf ab, Menschen aufzuzeigen, dass manche ihrer Annahmen nicht zu ihrer sozialen Identität und ihren Werten passen. Eine Studie mit 800 Teilnehmenden aus Deutschland und Österreich zeigte, wie die Offenlegung historischer und aktueller Verbindungen zwischen rechtsextremen Gruppen und alternativer Medizin sowie Impfskepsis Einstellungen verändern kann. Die Intervention informierte unter anderem darüber, wie bereits die Nationalsozialisten Misstrauen gegenüber der "jüdischen Schulmedizin" schürten und die alternative Medizin förderten, und wie auch heute noch rechtsextreme Gruppen ähnliche Strategien nutzen. Diese Information führte bei den Studienteilnehmenden zu einer deutlich kritischeren Haltung gegenüber alternativer Medizin – und das unabhängig von ihrer politischen Orientierung. Dies zeigt, dass die menschliche Motivation, Einstellungen zu haben, die zu ihrer sozialen Identität passen, ein Hebel sein kann, um Menschen zum Überdenken ihrer Überzeugungen zu motivieren.

Systemische Lösungen

Die Wirksamkeit von Interventionen mit einzelnen Personen scheint allerdings nicht weitreichend genug zu sein, da dadurch kaum genug Nutzer*innen erreicht werden können, um Falschnachrichten effektiv einzudämmen. „In unserer Forschung wollten wir daher auch systemische Lösungen testen, um zu schauen, wie Plattformen anders gestaltet werden könnten“, so Waldherr. Dafür entwarfen die Wissenschaftler*innen ein Simulationsmodell einer Social Media Plattform, in das sie einen bereits existierenden Datensatz einpflegen konnten. David Garcia, der inzwischen vom Complexity Science Hub an die Universität Konstanz gewechselt ist, verfolgte, welche Nachrichten Politiker*innen des US-Kongress per Twitter verbreiteten und was sie selbst posteten. „Daraus ergab sich ein sehr umfassender Datensatz, der das Verhalten einzelner sowie das Netzwerk zwischen verschiedenen Nutzer*innen realistisch darstellen kann“, erklärt Annie Waldherr. Dieses Netzwerk politischer Akteur*innen wurde in der Simulation nachgebaut, um dort dann verschiedene Interventionsmaßnahmen, wie das Verringern der Reichweite von unglaubwürdigen oder sehr emotionsgeladenen Posts, zu testen. „Interessanterweise zeigt sich dabei folgendes: je realistischer diese Simulation tatsächlich stattfindende Verbreitungsmuster wiedergibt, desto weniger einflussreich sind unsere Interventionen. Wir wissen aktuell noch nicht, woran das liegt“, so Waldherr weiter. Dies könnte aber darauf hinweisen, dass Einflüsse der Algorithmen auf die Verbreitung von Misinformation tatsächlich begrenzt sind und sich das Problem technisch allein nicht lösen lässt. Dabei dürfe aber ohnehin nicht erwartet werden, dass es das eine Rädchen gibt, an dem gedreht werden könne, um das Problem der Misinformation auf Social Media zu beheben. „Es wird stets eine Kombination aus Medienkompetenzbildung, die einen reflektierten Umgang mit sozialen Medien fördert, vertrauenswürdigen öffentlich-rechtlichen Medien, und adäquat designten Plattformen brauchen, um ein Umfeld zu schaffen, in dem Misinformation erkannt und als solche zurückgewiesen werden kann“.

Eine grundsätzliche Frage, die sich im Zusammenhang mit Misinformation in sozialen Medien auftut, ist, ob diese Plattformen sich überhaupt für politische Inhalte und Diskussionen eignen. „Der primäre Zweck von sozialen Medien ist möglichst lange zu unterhalten. Die dafür gestalteten Mechanismen eignen sich nicht gut für politische Diskussionen. Es wäre sinnvoller, Plattformen für verschiedene Zwecke zu entwickeln“, so Lühring. Im Gegensatz zu aktuellen Entwicklungen auf X oder Facebook, die wichtige Moderationsregeln und Faktenchecks abschaffen, seien weitere Regulierungen sinnvoll: Entsprechend könnten etwa Anonymität aufgehoben, geeignete Moderationstechniken und Faktencheck-Initiativen angewendet, und weniger extreme Inhalte angezeigt werden, die von mehreren politischen Fraktionen unterstützt werden – um eben Brücken zu bauen, statt Polarisierung zu schüren. „Insbesondere in sozialen Medien sehen wir, dass sich Menschen Gruppen zuordnen und mitunter Anerkennung gewinnen, wenn sie besonders laut und aggressiv sind. Solche Dynamiken könnten in speziell für politische Diskurse designten Plattformen wirkungsvoll reduziert werden“, veranschaulicht die Kommunikationswissenschafterin.

Insgesamt sei es wichtig, informierte Meinungsbildung und Medienkompetenz zu fördern, um einem Informationsumfeld des Misstrauens früh entgegenzuwirken. „Edda Humprecht und Kolleg*innen von der Universität Zürich konnten hier etwa zeigen, dass ein unabhängiger öffentlich-rechtlicher Rundfunk Mediensysteme stärkt. So können Menschen in Ländern, in denen öffentlich-rechtliche Medien stark verankert sind, besser zwischen wahren und falschen Informationen unterscheiden“, so Waldherr. Die Forschungslage spreche also für eine Stärkung der Öffentlich-Rechtlichen, obwohl sie politisch zunehmend in Frage gestellt werden und auch in Österreich zunehmend finanziell unter Druck stehen. Zusammenfassend seien systemische Lösungen, also die Förderung eines unabhängigen Mediensystems und die Regulierung von Plattformen ebenso wichtig wie Maßnahmen zur Stärkung der Medienkompetenz. (ht)

Eckdaten zum Projekt

  • Projekttitel: Emotional Misinformation - The Interplay of Emotion and Misinformation Spreading on Social Media
  • Laufzeit: 11/2021 – 08/2025
  • Projektteam: Jula Lühring, Annie Waldherr
  • Beteiligte und Partner*innen: Apeksha Shetty, David Garcia, Hannah Metzler (Complexity Science Hub, Vienna)
  • Institut: Publizistik- und Kommunikationswissenschaft
  • Finanzierung: Wiener Wissenschafts-, Forschungs- und Technologiefonds

 Publikationen

  • Lühring, J., Shetty, A., Koschmieder, C. et al. (2024). Emotions in misinformation studies: distinguishing affective state from emotional response and misinformation recognition from acceptance. Cogn. Research 9, 82. https://doi.org/10.1186/s41235-024-00607-0
  • Lühring, J., Metzler, H., Lazzaroni, R., Shetty, A., & Lasser, J. (2025). Best practices for source-based research on misinformation and news trustworthiness using NewsGuard. Journal of Quantitative Description: Digital Media, 5. https://doi.org/10.51685/jqd.2025.003