Zum Hauptinhalt springen
24.01.2019

Fake News auf Twitter bei der US-Präsidentschaftswahl 2016

1 Prozent der Nutzer bei Twitter sehen 80 Prozent der Fake News – nur 0,1 Prozent der Twitter-Nutzer teilen 80 Prozent der Fake News. Das Team um Nir Grinberg veröffentlichte diese Ergebnisse im Journal „Science“ (siehe Primärquelle). Sie untersuchten das Tweet-Verhalten von über 16.000 US-Amerikanern während der Präsidentschaftswahlen 2016. Ein weiteres Ergebnis: Konservative teilen im Vergleich zu Liberalen signifikant mehr Meldungen von Seiten, die die Autoren als „Fake-News-Outlets“ bezeichnen. Insgesamt ziehen die Forscher den Schluss: Die große Mehrheit der politischen Informationen, die die Nutzer erreichen, stammt aus zuverlässigen Nachrichtenquellen.

Da in letzter Zeit vermehrt scheinbar widersprüchliche Studien über den Einfluss von Fake News erschienen sind, ordnet der Wissenschaftler Derek Ruths in derselben Ausgabe diese Studien in einem Kommentar [I] ein. Er meint, die Studien untersuchten verschiedene Ebenen eines übergeordneten Systems. Sie ergänzten sich komplementär. Danach erkläre das Team um Nir Grinberg, welchen Einfluss Seitenbetreiber auf die Verbreitung von Fake News hätten.

Übersicht

  • Prof. Dr. Axel Bruns, Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre der Queensland University of Technology, Brisbane, Australien
  • Dr. Cornelius Puschmann, Senior Researcher, Leibniz-Institut für Medienforschung │Hans-Bredow-Institut (HBI), Hamburg

Statements

Prof. Dr. Axel Bruns,

Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre der Queensland University of Technology, Brisbane, Australien

„Insgesamt ist die Weiterleitung und der Konsum von wirklichen ‚fake news‘-Artikeln offenbar eher ein Nischenphänomen: Zusätzlich zu der aktuellen Studie von Grinberg et al., die sich auf Twitter konzentriert, zeigt das zum Beispiel auch die ähnlich angelegte Arbeit von Guess et al. [1] für Facebook. Oft sind es hierbei kleine, aber hochaktive Gruppen an den Rändern des politischen Spektrums (und besonders in der extremen Rechten), sowie eher ältere Nutzer, die dabei besonders hervorstechen. Allerdings beziehen sich viele aktuelle Studien besonders auf die USA vor der Präsidentschaftswahl 2016: In Deutschland und Europa besteht bei dieser Forschung noch einiger Nachholbedarf, auch wenn Fletcher et al. [2] hier zum Beispiel schon interessante Ergebnisse präsentiert haben.“

„Wichtig ist in diesem Zusammenhang allerdings auch, dass ‚fake news‘-URLs, um die es bei der aktuellen Studie geht, nur ein Teil des gesamten ‚fake news‘-Phänomens sind: Durch Two- (oder auch Multi-) Step-Flow-Effekte (Weiterverbreitung von Informationen durch Meinungsführende; Anm. d. Red.) kann es immer noch möglich sein, dass die konkreten Artikelinhalte sich über die Reichweite der ersten Verteiler hinaus in vagerer Form als Gerüchte weiterverbreiten. Diese Möglichkeit zeigt ja auch der Kommentar von Ruths auf. Solche Gerüchte sind dann vermutlich weniger unmittelbar wirksam, könnten aber mittelbar allgemeinere Zweifel an der Verlässlichkeit öffentlicher Informationen wecken, was für die Bevölkerung und ihr Verständnis von aktuellen Ereignissen nicht minder problematisch wäre.“

„Die Studie zeigt einige technische Möglichkeiten auf, besonders die sogenannten Supersharers automatisch zu erkennen und ihre Arbeit zumindest zu erschweren. Das ist sicherlich nützlich, dürfte aber am Ende nur das technische Wettrüsten zwischen Plattformbetreibern und renitenten Problemnutzern weiter anfachen. Die Bereitstellung zusätzlicher Informationen für normale Nutzer, um sie zum Beispiel vor bestimmten ‚fake news‘-Seiten zu warnen oder ihr überaktives Weiterleiten zu dämpfen, wäre ebenfalls sinnvoll, und ist zumindest in Ansätzen schon implementiert worden – Links auf Facebook kommen jetzt oft mit einem zusätzlichen Informationsbutton, der auf den Wikipedia-Eintrag zum Veröffentlicher verweist. Wieweit die Nutzer dies jedoch wahrnehmen oder in ihre Nutzungspraktiken einfließen lassen, ist noch unklar.“

„Größere Eingriffe in die aktiven Nutzungsmöglichkeiten – etwa der Ausschluss bestimmter Nutzer oder URLs – könnten je nach Rechtssystem mit Sicherheit als Einschränkung des Rechts auf freie Meinungsäußerung angesehen werden (also zum Beispiel das First Amendment der US-Verfassung), und sind daher von den Plattformbetreibern nicht aus Eigeninitiative zu erwarten; hier müsste schon der Gesetzgeber tätig werden, was wiederum klare Grenzen zwischen ‚fake news‘ und anderen Formen von Propaganda benötigen würde. Insgesamt allerdings halte ich es für grundfalsch, ‚fake news‘ in erster Linie als technisches Problem zu sehen, das auch technisch gelöst werden kann: Die Grundfrage ist eher, warum manche Nutzer derlei Informationen konsumieren und auch weiterleiten – und ob dies eigentlich vor Twitter und Facebook überhaupt signifikant anders war.“

In Bezug auf den ebenfalls in Science erscheinenden Kommentar von Derek Ruths:
„Grundsätzlich hat Ruths recht: Grinberg et al. (wie auch Guess et al.) beschäftigen sich mit der Weiterleitung konkreter URLs; andere Studien untersuchen Retweetketten oder auch nur die Verbreitung von einschlägigen Schlüsselworten oder Hashtags. Diese wichtigen Unterschiede werden oft nicht klar genug wahrgenommen. In der Berichterstattung zu der von Ruths angesprochenen Studie von Vosoughi et al. hieß es zum Beispiel allzu oft, dass sich Falschmeldungen schneller als korrekte Berichte verbreiten würden – aber die Studie selbst zeigt nur, dass sich Falschmeldungen schneller verbreiten, als die nachfolgenden Richtigstellungen für ebendiese Falschmeldungen. Zur Verbreitungsgeschwindigkeit von Berichten, die von Anfang an korrekt waren, bieten Vosoughi et al. keine Informationen an.“

„Jedoch scheint mir Ruths ein noch sehr viel wichtigeres Problemfeld komplett zu übersehen. Er hält etwa die von Grinberg et al. aufgezeigten Unterschiede zwischen konservativen und liberalen ‚fake news‘-Weiterleitern vor allem für ein Zeichen unterschiedlicher Desinformationspraktiken: Vielleicht haben wir einfach noch ‚keine verlässlichen Methoden‘, die mutmaßlichen Praktiken von Liberalen zu erkennen und messen. Nach dem aktuellen Stand der Erkenntnisse, insbesondere zur Präsidentschaftswahl 2016 in den USA, scheint es mir da doch sehr viel wahrscheinlicher, dass konservative Wähler sehr viel stärker als Liberale durch verschiedene ‚fake news‘-Produzenten inner- und außerhalb der USA geködert wurden, und dass ihr Glaube an bestimmte ‚fake news‘ auch durch die Trump-Kampagne maßgeblich geduldet oder sogar gefördert wurde. Ich meine, die von Grinberg et al. dokumentierten Unterschiede zwischen den politischen Lagern lassen sich sehr viel eher damit erklären als mit etwaigen Messproblemen – und auch deshalb sind weitere vergleichende Studien auch außerhalb der USA wichtig, denn unter umgekehrten Vorzeichen mag das Ergebnis dann wieder deutlich anders aussehen.“

Dr. Cornelius Puschmann,

Senior Researcher, Leibniz-Institut für Medienforschung │Hans-Bredow-Institut (HBI), Hamburg

„Die Studie bestätigt vorausgegangene Forschung [3] dahingehend, dass nur ein geringer Anteil der US-Wähler tatsächlich Kontakt zu Fake News-Webseiten hatte oder aktiv Beiträge aus diesen Quellen weitergegeben hat, auch wenn die Konzentration von Fake News innerhalb dieser kleinen Gruppe sehr hoch war. Andere Studien haben dies bereits nahegelegt [4], und Befunde zur absoluten Verbreitung einzelner Fake News-Beträge eignen sich keinesfalls als Gegenbeweis, weil man daraus eben nichts über Wählerverhalten insgesamt, sondern nur über das Verhalten einer extremen Minderheit schlussfolgern kann.“

„Darüber hinaus sagen diese und ähnliche Studien auch noch nichts über die Wirkung von Fake News aus, also darüber, ob Fake News zum Beispiel Wahlentscheidungen beeinflussen. Ist man zunächst einmal skeptisch, kommt man nach dem Forschungsstand zu dem Ergebnis, dass (a) Fake News weniger Menschen erreichen als dies zum Teil perpetuiert wird und (b) diese Personen mitunter auch dann Inhalte weitergeben, wenn sie von deren Richtigkeit keineswegs überzeugt sind oder von deren Implikationen unbeeinflusst bleiben. Tatsächliche Effekte sind, sofern nachzuweisen, sehr gering, was nur in sehr knappen Abstimmungsausgängen eine Rolle spielt.“

„Die im Beitrag vorgeschlagenen Gegenmaßnahmen sind im Wesentlichen die, mit denen die großen Plattformen aktiv experimentieren. So hat etwa WhatsApp kürzlich zur Bekämpfung von Fake News das Weiterleiten von Nachrichten von 20 auf maximal 5 Nutzer reduziert [5]. Die algorithmische Herunterstufung der Beiträge extrem aktiver Nutzer erscheint zwar zunächst als drastische Maßnahme, ist aber insofern keine schlechte Idee, als dass extrem aktive Nutzer (a) durch ihr Verhalten oftmals Diskussionen dominieren und (b) sich in ihrer Haltung zum Teil markant von Durchschnittsnutzern unterscheiden. Auch dies rückt zunehmend in den Fokus der Forschung. Fake News als gesellschaftliche Herausforderung sind nicht alleine technisch lösbar – es braucht unbedingt mehr digitale Medienbildung. Die vorgeschlagenen Schritte weisen aber richtigerweise zunächst auf die umfassenden Möglichkeiten der Plattformen hin, wenn es darum geht, die Verbreitung von Fake News zu reduzieren.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Axel Bruns: „Interessenskonflikte sollte es meines Wissens nicht geben.“
Dr. Cornelius Puschmann: „Ein Interessenskonflikt meinerseits besteht nicht.“

Primärquelle

Grinberg N et al. (2019): Fake news on Twitter during the 2016 U.S. presidential election. Science; DOI: 10.1126/science.aau2706.

Literaturstellen, die von den Experten zitiert wurden

[1] Fletcher R et al. (2018). Measuring the Reach of “Fake News” and Online Disinformation in Europe. Reuters Institute for the Study of Journalism.
[2] Guess A et al. (2019). Less than you think: Prevalence and predictors of fake news dissemination on Facebook. Science Advances; DOI: 10.1126/sciadv.aau4586.
[3] Allcott H et al. (2017). Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives; DOI: 10.1257/jep.31.2.211
[4] Guess A et al. (2018). Selective exposure to misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign.
[5] T-Online (2019). WhatsApp schränkt Weiterleiten-Funktion ein.

Weitere Recherchequellen

[I] Ruths D (2019): The misinformation machine. Science; DOI: 10.1126/science.aaw1315.