Zum Hauptinhalt springen
26.06.2017

Achtung! Die folgende Publikation wurde von den Wissenschaftlern zurückgezogen: Informationsflut in Sozialen Netzen sorgt für Viralität von Fake News

Die Autoren der Publikation, auf die sich die untenstehenden Statements (SMC Research in Context vom 26. Juni 2017) beziehen, haben diese am 7. Januar 2019 zurückgezogen. Sie begründen diesen Schritt damit, weitere Forschungen hätten zwei Fehler in ihrer eigenen Studie offengelegt: Zum einen habe ein Programmierfehler einen falschen Wert produziert, zum anderen hätten sie in ihrem statistischen Modell fehlerhafte Daten verwendet. Die „ursprüngliche Schlussfolgerung“, dass das Modell voraussage, dass „minderwertige Informationen genauso wahrscheinlich viral werden wie hochwertige Informationen“, werde nach den Korrekturen nicht mehr gestützt. Alle anderen Befunde der Publikation blieben gültig, so die Autoren. Die Begründung finden Sie beim Journal selbst und auch hier bei Retraction Watch.

Die in unserem Research in Context kommentierten Ergebnisse der Studie sollten daher nicht mehr ohne einen entsprechenden Hinweis in künftige Berichte einfließen. Das gilt auch für die sich darauf beziehenden Statements der Wissenschaftler. Wir lassen den Eintrag als historisches Dokument zum Nachrecherchieren weiter auf unserer Homepage stehen.

 

Die Überflutung mit Informationen in Sozialen Netzen sorgt für größere Verbreitung von „low-quality information“. Diesen Schluss präsentieren Forscher aus China und den USA in „Nature Human Behaviour“. Die Wissenschaftler hatten Daten über die Qualität und die Menge von Informationen, ihre Verbreitung und die Aufmerksamkeitsspanne von Nutzern in ein einfaches Netzwerk-Modell einfließen und berechnen lassen. Sie wollten simulieren, welcher Zusammenhang zwischen der Menge an Informationen besteht, die ein Nutzer empfängt und der Qualität der Informationen, die er weiterleitet. Je mehr Nachrichten die Aufmerksamkeit der virtuellen Nutzer forderten, desto weniger kritisch wählten diese aus. Leicht zu verstehende, aber oft ungesicherte oder falsche Nachrichten wurden im Ergebnis der Simulation häufiger weitergesendet und wahrscheinlicher viral.

Die Forscher sehen in ihrem Ergebnis eine Erklärung für den bereits beobachteten Effekt, dass in Sozialen Medien wie Facebook, Twitter, Instagram oder Tumblr Fakes und Hoaxes sich mindestens ähnlich gut verbreiten wie gesicherte Nachrichten. Wenn die Nutzer eine Chance haben sollten, Informationen vor dem Versenden zu überdenken, müsse der Informationsfluss begrenzt werden, so die Wissenschaftler – zum Beispiel durch das Zügeln von Bots, die Soziale Netzwerke überfluteten mit tendenziösen Meldungen.

Übersicht

     

  • Dr. Christian Grimme, Institut für Wirtschaftsinformatik, Westfälische Wilhelms-Universität Münster
  •  

  • Prof. Dr. Dr. Dietmar Janetzko, Professor für Wirtschaftsinformatik und Business Process Management, Cologne Business School – European University of Applied Sciences (CBS), Köln
  •  

  • Prof. Dr. Joachim Scharloth, Professor angewandte Linguistik, Technische Universität Dresden
  •  

  • Prof. Dr. Oliver Zöllner, Professor für Medienforschung und Digitale Ethik, Hochschule der Medien Stuttgart
  •  

Statements

Dr. Christian Grimme

Institut für Wirtschaftsinformatik, Westfälische Wilhelms-Universität Münster

„Das vorliegende Paper ist eine interessante Studie zur Frage des Einflusses von Aufmerksamkeit und Informationsüberflutung auf die Verbreitung von Inhalten in der Online-Kommunikation. Es zeigt, dass große Mengen an Informationen und die natürlich begrenzte menschliche Aufmerksamkeit dazu führen können, dass eine geeignete Qualitätsbeurteilung nicht mehr möglich ist. Dadurch können sich auch Inhalte schlechter Qualität verbreiten. Das von den Autoren vorgeschlagene Modell wird von ihnen selbst als einfach bezeichnet. Es zeigt aber theoretisch (und auch durch empirische Befunde gestützt) die oben beschriebenen Effekte und stellt eine vielleicht intuitive Annahme auf methodisch abgesicherte Füße. Natürlich kann man darüber diskutieren, ob die Befunde auf Basis einer einfachen Modellannahme ausreichend für die Verbreitung von Fake News und Propaganda sind. Sie sind aber ein Erkenntnisbaustein für die weitere Erforschung von menschlichen Kommunikations- und Handlungsmechanismen in sozialen Netzwerken.“

 „Die Schlussfolgerung, dass Social Bots diesen Mechanismus nutzen könnten, um die Aufmerksamkeit von Nutzern zu reduzieren und damit Nachrichten schlechterer Qualität Vorschub zu leisten ist interessant. Es scheint aus meiner Sicht aber keine gangbare Lösung zu sein, die Informationsflut künstlich zu begrenzen. Dies würde im Zweifel zu großen Akzeptanzproblemen bei Nutzern sozialer Medien führen, das Geschäftsmodell für Anbieter zerstören und zugleich in vielen Fällen eine sinnvolle Nutzung von sozialen Medien erschweren oder unmöglich machen. Ein Verbot von Social Bots erscheint zudem rechtlich schwierig und bisher technisch kaum durchsetzbar.“

Prof. Dr. Dr. Dietmar Janetzko

Professor für Wirtschaftsinformatik und Business Process Management, Cologne Business School – European University of Applied Sciences (CBS), Köln

„Das Modell von Qiu et al. dürfte zu den avanciertesten Computermodellen gehörten, die gegenwärtig zur Beschreibung und Erklärung der Informationsausbreitung in sozialen Netzen vorliegen. Es zieht die Summe aus verschiedenen durchaus plausiblen, aber oft anekdotenhaft formulierten und ungeprüften Annahmen zur Informationsverarbeitung in Medien. Hierzu zählt beispielsweise, dass Aufmerksamkeit ein knappe Ressource und für die Verbreitung von Nachrichten in sozialen, aber auch in klassischen Medien entscheidend ist. Oder dass das Informationssystem der sozialen Netze als Markt zu begreifen ist, auf dem Ideen (Meme) und Neuigkeiten um Aufmerksamkeit konkurrieren.“ 

 „Das Modell von Qiu et al. bindet solche Annahmen in ein mathematisches Modell zusammen, das Vorhersagen zur Informationsweitergabe bei bestimmten Parameterfestlegungen (z.B. Aufmerksamkeit, die man einer Nachricht entgegenbringt) erlaubt. Im Kern kann man mit diesem Modell und innerhalb der Grenzen dieses Modells verschiedene Was-wäre-wenn-Szenarien durchspielen, zum Beispiel: Wie sähe die Informationsweitergabe durch Retweets aus, wenn alle Teilnehmer auf Twitter eine geringe Aufmerksamkeit haben? Oder: Wie sähe die Informationsweitergabe durch Retweets aus, wenn alle Teilnehmer auf Twitter einer Vielzahl von Informationen (high information overload) ausgesetzt sind? etc.“  

„Für das Modell spricht, dass es ein ‚schlankes Model’ ist, das mit wenigen Parameter auskommt, um die Verbreitung von Information in sozialen Netzen zu approximieren. Modelle mit vielen Parametern werden in der Wissenschaft in aller Regel abgelehnt, da sie typischerweise auf jedes denkbare Datenmuster passen und somit nicht falsifizierbar sind. Weiter spricht dafür, dass es ein Paradoxon zu erklären erlaubt: Auch Nachrichten mit niedriger Qualität (z.B. Fake News) verbreiten sich mitunter schnell in sozialen Netzen. Ferner, dass es gut ‚geerdet’ ist, da umfangreiche Daten von Twitter, Tumblr und Facebook zu seiner Überprüfung herangezogen wurden.“

 „Allerdings: es ist ein Erklärungsmodel, das auf großen Datenmengen plausible Ergebnisse liefert, aber kein Vorhersagemodel, das zur Vorhersage von einzelnen Nachrichten eingesetzt werden könnte. Ferner ist die Erkenntnis, die sich aus dieser Arbeit ergibt, alles andere als überraschend. Einer seiner Kernaussagen ist: Bei geringer Aufmerksamkeit und hoher Informationsbelastung (information overload) sinkt die Differenzierungsfähigkeit und es steigt die Wahrscheinlichkeit, dass Nachrichten niedriger Qualität per retweet weitergegeben werden. Hinzu kommt: Anders als bei einem echten Vorhersagemodell ist das gewählte Modell – trotz der geringen Zahl von Parametern – nicht falsifizierbar: Es lässt sich zumeist immer eine Parametereinstellung finden, bei der das Modell die Daten auf plausible Weise approximiert. Ja, es lässt sich nicht einmal sagen, ob die gewählten Parameter dem Phänomen Fake News gerecht werden. Vielleicht sind ja nicht Parameter wie ‚information overload’ und Aufmerksamkeit, sondern emotionale Komponenten, etwa der Sensations- oder Unterhaltungsfaktor eines Tweets für seine Weitergabe relevant?“ 

„Vor dem Hintergrund der Arbeit von Qiu et al. müssten die Informationen, denen wir täglich ausgesetzt sind, reduziert werden. Eine solche Informationsreduktion kann aber auf unterschiedliche Weise erreicht werden: Jeder kann sich selbst einen vernünftigen Umgang mit Informationen verordnen. Eine gegebenenfalls neu zu konzipierende Medienpädagogik setzt auf Informationsauswahl. Verbote – etwa von Social Bots - könnten grundsätzlich ebenfalls die Informationsflut eindämmen helfen, hätten aber unter Umständen unerwünschte Nebeneffekte (z.B. Ausweichen auf Trolle).“ 

Prof. Dr. Joachim Scharloth

Professor angewandte Linguistik, Technische Universität Dresden

„In der Studie kommen Wissenschaftler vom Shanghai Institute of Technology, der Indiana University und von Yahoo Research zu dem Ergebnis, dass es einen Zusammenhang zwischen der Menge an Informationen, die in einem sozialen Netzwerk kursieren, und der Fähigkeit seiner Mitglieder gibt, gute von schlechten Informationen zu unterscheiden: Je höher die Informationslast, desto schwieriger wird es für die Mitglieder sozialer Netzwerke, die Nachrichtenqualität zubeurteilen.“ 

„Die Studie beruht auf einem agentenbasierten Modell. Das soziale Netzwerk wird durch eine Menge kleiner, quasi-individuell agierender Einheiten modelliert, die Entscheidungs- und Handlungsmöglichkeiten haben. Der große Vorteil solcher Modelle liegt darin, dass man mit ihnen heterogene Motivationen und die wechselseitige Abhängigkeit des Verhaltens von Individuen untersuchen kann. Und so liegt der Vorteil der Studie auch darin, dass die beteiligten Wissenschaftler nicht die Entwicklung von Einzelinformationen, sondern einen Markt der Ideen konstruieren, in dem Informationen gewissermaßen gegeneinander antreten. Je mehr Informationen auf dem Markt sind, desto schwerer haben es qualitativ hochwertige Informationen, sich durchzusetzen. Für Falschnachrichten heißt dies: Je mehr Informationen auf dem Markt sind, desto größer ist die Chance, dass sie sich verbreiten.“ 

„Warum sind die Ergebnisse dennoch mit Vorsicht zu genießen? Der Studie liegen einerseits stark vereinfachende Vorstellungen von guter und schlechter Information zugrunde. Informationen sind in den allermeisten Fällen nicht einfach wahr oder falsch, gut oder schlecht. Sie sind es vor dem Hintergrund von Vorwissen, individuellen Interessen, subjektiven Informationsbedürfnissen und der vermuteten Relevanz der Informationen für andere Menschen. Das verwendete Modell kennt aber nur das 0 und 1 von guter und schlechter Information. Die Studie verwendet auch ein unzureichendes Modell der möglichen Gründe, warum Mitglieder sozialer Netzwerke Informationen teilen. Inhalte werden nicht nur geteilt, um andere Menschen zu informieren; sie werden auch geteilt, um sich kritisch von ihnen zu distanzieren, weil ihre Inhalte unterhaltsam sind oder weil man sich über etwas lustig machen möchte.“ 

„So ist die Studie neben ihren Verdiensten auch ein Beleg dafür, wie eindimensional sich manche Konstrukteure sozialer Netzwerke die Nutzer vorstellen.“

Prof. Dr. Oliver Zöllner

Professor für Medienforschung und Digitale Ethik, Hochschule der Medien Stuttgart

„Das Modell der Forscher bildet die alltäglichen Handlungsweisen in sozialen Online-Netzwerken sehr realistisch ab. Was kurz und knackig daherkommt, leicht verständlich ist und zudem typische Nachrichtenwerte wie etwa Alarmismus oder Negativität bedient, wird eher gelesen, mit Likes versehen oder weitergeleitet als Meldungen, die länger, komplexer und differenzierter sind, also mehr Nachdenkzeit erfordern.“ 

„Hinzu kommt, dass Meldungen favorisiert werden, die dem Weltbild des Social-Media-Nutzers entsprechen, also dem, was er/sie bereits kennt oder was schon zuvor anderswo zu lesen war und insofern durch Wiederholung legitimiert wird. Dies ist ein ganz wesentliches Einfallstor für Social Bots, die ja im Kern nichts Anderes machen als Meldungen massiv zu wiederholen.“

 „Ganz neu sind die Erkenntnisse der Forscher nicht, aber sie stützen bestehende Erkenntnisse der Nachrichtendiffusions- und Aufmerksamkeitsforschung, und das an einem sehr zeitgemäßen, aktuellen Beispiel. Als Rezept zugespitzt formuliert: ‚Überflute den öffentlichen Raum mit Meldungen: irgendetwas wird hängenbleiben bzw. 'geteilt' werden - und die Meldung setzt sich durch’.“ 

„Diesem Modell der Verbreitung von Fake News, Hasspropaganda usw. allein mit technischen und/oder juristischen Maßnahmen beizukommen, dürfte schwierig sein. Die Initiatoren dieser unerwünschten Meldungen werden immer einen Schritt voraus sein, so ist zu befürchten. Insofern ist ein Bildungsansatz ergänzend ins Auge zu fassen: Menschen müssen bereits ab dem Kindergarten- und Grundschulalter kontinuierlich den kritischen Umgang mit Medien und ihren Inhalten, Funktionsweisen und den dahinterstehenden Geschäftsmodellen kennen lernen und einüben. Eine solche digitale Medienkompetenz ist eine zentrale Schlüsselqualifikation für die digitale Gegenwart und Zukunft.“

Mögliche Interessenkonflikte

Alle: Keine angegeben.

Primärquelle

Qiu, X et al. (2017): Limited individual attention and online virality of low-quality information. Nature Human Behaviour 1, 0132, DOI: 10.1038/s41562-017-0132.