Zum Hauptinhalt springen
17.03.2021

Helfen Hinweise gegen das Teilen von Falschinformationen?

Anlass

Menschen könnten weniger Falschnachrichten in sozialen Medien teilen, wenn sie zuvor per Nachricht dazu ermuntert werden, über den Wahrheitsgehalt weiterverbreiteter Nachrichten nachzudenken. Zu diesem Schluss kommt ein Autorenteam um Gordon Pennycook in einer Studie, die am MIttwoch den 17.03.2021 im Fachjournal „Nature“ veröffentlicht wurde (siehe Primärquelle).

Die Forscher hatten anfangs drei Hypothesen aufgestellt, warum Nutzerinnen und Nutzer in sozialen Medien möglicherweise Falschinformationen teilen: Sie sind sich nicht sicher, was richtig oder falsch ist, sie interessieren sich weniger für den Wahrheitsgehalt und mehr dafür, dass ihre Meinung bestätigt wird oder ihre Partei gut dasteht. Oder sie achten drittens, ohne es zu merken, einfach weniger darauf, ob das Geteilte überhaupt wahr ist, da sie eher auf andere Faktoren fokussieren.

In ihren Experimenten stießen die Forschenden auf die kognitive Dissonanz, dass die Befragten zwar oft recht gut erkannten, welche Nachrichten wahr oder falsch sind, dass das aber kaum einen Effekt darauf hatte, ob sie die Nachricht teilten. Und das, obwohl die meisten Befragten es für wichtig hielten, nur wahre Nachrichten zu teilen. Die Forschenden sehen in ihren Experimenten die Hypothese bestätigt, dass die Befragten beim Teilen stärker auf andere Faktoren als den Wahrheitsgehalt einer Meldung fokussieren und sie genau deshalb dazu neigen, sie unbedacht weiterzuleiten. In einem weiteren Experiment konnten die Autoren nachweisen, dass Probanden auf Twitter eher Nachrichten von höherer Qualität teilten – beurteilt anhand eines „quality scores“ für Medien – nachdem sie in einer privaten Nachricht gebeten wurden, den Wahrheitsgehalt einer nicht-politischen Überschrift zu beurteilen.

Das Forscherteam betont als Schlussfolgerung, dass einfache Maßnahmen wie eine solche Nachricht oder das Nachfragen vor dem Teilen Nutzerinnen und Nutzer stärker dazu motivieren könnte, weniger Falschnachrichten zu teilen. Die Studie reiht sich ein in eine Debatte, die sich mit den Gründen für die Weiterleitung und Verbreitung von Falschinformationen befasst. Es erscheint zunächst einleuchtend, dass Menschen sich oft mehr dafür interessieren, dass Ihre eigene Meinung emotional bestätigt wird oder eine Nachricht ihr politisches Weltbild bestätigt und sie deshalb weniger auf den Wahrheitsgehalt der verbreiteten Meldungen achten. Die Studie von Pennycook et al. deutet nun allerdings darauf hin, dass Menschen beim Teilen von Falschinformationen oft, ohne es zu merken, einfach weniger darauf achten, ob das Geteilte wahr ist. Sie denken sozusagen nicht zu Ende, obwohl sie im Grunde lieber wahrhaftige Nachrichten teilen als falsche.

Übersicht

     

  • Dr. Anne Schulz, Postdoctoral Research Fellow, Reuters Institute for the Study of Journalism, Universität Oxford, Vereinigtes Königreich
  •  

  • Prof. a.Z. Dr. Lena Frischlich, Vertretungsprofessorin für Medienwandel, Institut für Kommunikationswissenschaft und Medienforschung, Ludwig-Maximilians-Universität München
  •  

  • Prof. Dr. Nicole Krämer, Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen
  •  

  • Prof. Dr. Axel Bruns, Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien
  •  

Statements

Dr. Anne Schulz

Postdoctoral Research Fellow, Reuters Institute for the Study of Journalism, Universität Oxford, Vereinigtes Königreich

„Die Studie ist aus meiner Sicht sehr vorsichtig, logisch und damit auch klug aufgebaut. Die Forscher sind hier stufenweise vorgegangen und haben mit jeder Teilstudie jeweils immer nur kleinen Teilfragen nachgespürt, einen Schritt nach dem anderen. Das hält die Dinge übersichtlich und man vermeidet, dass Effekte verschiedener Treatments sich überlagern. Man kann so am Ende besser sagen, ob ein bestimmtes Treatment wirklich einen Unterschied gemacht hat.“

„Replikationen sind mit Daten erfolgt, die auf jeweils anderen Wegen gesammelt wurden. Wenn man dann trotzdem immer zu ähnlichen Ergebnissen kommt, obwohl die Datengrundlage sich leicht unterschieden hat, erhärtet das in der Regel die Befunde. Wenn ich mir an einer Stelle noch mehr Antworten gewünscht hätte, dann vielleicht auf die Frage, was zum Teilen motiviert, wenn eben nicht auf die Akkuratheit geachtet wird. Die Autoren erwähnen nur, dass der Social Media Kontext einen Fokus auf den Wunsch legt, Aufmerksamkeit zu erregen oder Follower zufriedenzustellen. Die Nachweise dafür bleiben aus, hätten den Bogen hier eventuell aber auch überspannt. Man kann nicht auf alles sofort eine Antwort bieten.“

Auf die Frage, wie effektiv der vorgestellte Ansatz sein kann:
„Einen Nudge zu setzen, der dazu motiviert über die Akkuratheit eines Posts nachzudenken, bevor man ihn teilt, halte ich für durchaus vielversprechend. Insbesondere auch nach der Lektüre dieser Studie. Hardliner*innen, die besonders häufig Falschinformationen teilen, wird das eventuell nicht überzeugen, von denen gibt es aber auch eher wenige. Die Idee ist hier, Menschen vom Teilen falscher Meldungen zu bewahren, die das eigentlich nicht wollen und es auch sofort besser wissen, wenn man sie nur kurz daran erinnert. Es geht also um Menschen, die nicht unbedingt eine politische Agenda verfolgen und Böses wollen, die nur manchmal vom Wesentlichen abgelenkt sind.“

Auf die Frage, inwiefern ähnliche Maßnahmen – wie Facebooks Anmerkungen unter geteilten Artikeln oder Twitters Nachfragen vor dem Teilen, ob man einen Artikel gelesen hat – bereits wirken:
„Im Moment ist das vermutlich noch nicht abschließend beantwortet und Plattformen probieren hier verschiedene Dinge aus.“

Auf die Frage, wie leicht die in der Studie angedachte „Nachfragefunktion“ implementiert werden könnte:
„Ich denke, das ist ohne Probleme möglich und wird heute bereits auch schon gemacht. Dabei ist den Betreiber*innen daran gelegen, Interventionen so minimalinvasiv wie möglich zu halten. Es soll nicht darum gehen, die Verbreitung bestimmter Meinungen einzuschränken, sondern die Verbreitung falscher Informationen, und zwar aus egal welchem Lager. Ein neutraler Hinweis, der ermutigt, auf den Wahrheitsgehalt eines Posts zu achten, geht hier sicher in eine demokratisch wünschenswerte und auch umsetzbare Richtung. Zuckerberg hat erst im vergangenen Jahr wieder ganz deutlich gemacht, dass Facebook nicht der ‚arbiter of truth‘ also der Hüter der Wahrheit sein will und kann. Insofern dürfte der in der Studie untersuchte Ansatz bei Plattformbetreibern auf Interesse stoßen.“

„Konkret könnte man sich beispielsweise vorstellen, dass so ein Nudge ganz oben im News Feed auftaucht, immer wenn man eine Sitzung startet. Die Studie hat ihn bei einigen Twitter Nutzer*innen in die persönlichen Nachrichten gesetzt und zeigte, dass der Nudge relativ lang Wirkung zeigte. Insofern ist es also vielleicht nicht notwendig, ihn beim Teilen jedes einzelnen Posts zu setzen. Es ist allerdings auch damit zu rechnen, dass es zu Gewöhnungseffekten kommt und der Nudge irgendwann nicht mehr gesehen und beachtet wird und Menschen dann wieder in ihre alten Muster zurückfallen. Da muss viel ausprobiert werden.“

Auf die Frage, wie der Ansatz des „Quality Score“ zu bewerten ist, der Posts und Medien zugeteilt wird und inwiefern solche Simplifizierungen problematisch sind:
„Die Frage ist, wie könnte man es anders machen und wären diese Alternativen dann besser? Man könnte beispielsweise darüber nachdenken, Nutzer*innen und damit Lai*innen selbst bewerten zu lassen, welche Medienmarken vertrauenswürdig sind und welche nicht. Wir haben eine eigene Studie gemacht in der wir Bewertungen von Medienmarken durch Expert*innen und Lai*innen verglichen haben [1]. Da gibt es einen starken Zusammenhang, das heißt beide Gruppen kommen hier in den allermeisten Fällen zu gleichen Urteilen in Hinblick auf die Glaubwürdigkeit.“

Prof. a.Z. Dr. Lena Frischlich

Vertretungsprofessorin für Medienwandel, Institut für Kommunikationswissenschaft und Medienforschung, Ludwig-Maximilians-Universität München

„Pennycook et al. präsentieren die Ergebnisse einer ganzen Reihe von Studien, die insgesamt methodisch überzeugen. Die verwendeten Materialien, die verschiedenen Stichproben und die Kombination von experimentellen und feld-experimentellen Studien sprechen für eine hohe Zuverlässigkeit der Befunde und eine Übertragbarkeit in verschiedene Kontexte – zumindest in den USA.“

„Im Einzelnen handelt es sich bei der Datenbasis unter anderem um Studien, welche über die Online-Crowdworker Plattform Amazon Mechanical Turk (MTurk) rekrutiert wurden – hier ist die Repräsentativität der Stichprobe nicht unbedingt gewährleistet – aber auch um Stichproben, welche die US-Amerikanische Bevölkerung repräsentieren und ein Feld-Experiment bei Twitter.“

„Die Auswertung erfolgte mit verschiedenen robusten Modellen, das scheint angemessen. Allerdings werden die Details zu diesen Analysen – wie typisch für Nature – lediglich im Anhang geschildert. Hierdurch bleibt etwas unklar, warum sowohl lineare als auch logistische Modelle verwendet wurden. Bei den Modellen liegen jeweils unterschiedliche Verteilungsannahmen zugrunde, es wäre schön gewesen, hierfür eine Begründung zu erhalten. Für die Interpretation der Ergebnisse spricht aber, dass die verschiedenen Transformationen an den Erkenntnissen größtenteils wenig verändern. Auch die umfassende statistische Modellierung (in den zusätzlichen Materialien) unterstützt die gezogenen Schlussfolgerungen.“

„Für die Gültigkeit der geschilderten Schlussfolgerungen spricht, dass sich die jeweiligen Befunde nicht nur in einer Stichprobe zeigen, sondern in verschiedenen Stichproben und mit variierenden experimentellen Bedingungen replizierbar sind.“

„Die Befunde unterstreichen bisherige Erkenntnisse – teilweise der gleichen Autoren –, nach denen die Verbreitung von Fehlinformationen in einem engen Zusammenhang mit der (fehlenden) analytischen Überprüfung der Inhalte steht [2][3]. Gleichzeitig zeigen sie, das Mediennutzende Fehlinformationen nicht hilflos ausgeliefert sind, sondern, bei entsprechender Motivations- und Gelegenheitslage, durchaus in der Lage sind, Nachrichten im Hinblick auf Ihre Faktizität zu bewerten.“

„Insgesamt spricht einiges dafür, dass das Ziel der Genauigkeit einen kritischeren Umgang mit Medieninhalten begünstigt – in der Forschung zu sogenannten persuasiven Inhalten, also Botschaften, die auf Überzeugung abzielen, wird hierbei auch von elaborierter, systematischer, oder zentraler Verarbeitung gesprochen und es zeigt sich schon lange, dass das zu stabileren Einstellungsbildungsprozessen beiträgt [4][5]. Auch ist die Annahme, dass begrenzte Aufmerksamkeitskapazitäten eine zentrale Rolle spielen, konsistent zu allgemeinen medienpsychologischen Theorien [6].“

Auf die Frage, wie effektiv der vorgestellte Ansatz sein kann:
„Auch wenn die letzte Feldstudie noch weiter repliziert werden muss, spricht doch einiges dafür, dass die persönliche Bitte, die Genauigkeit anderer Inhalte einzuschätzen, auch bei Accounts, die sonst bevorzugt Inhalte hyperparteilicher und verzerrender Quellen bei Twitter unterstützen, zu einer Veränderung des Teilverhaltens führt.“

„Allerdings kann die Analyse nicht zeigen, ob eventuell besonders selektiv Inhalte aus etablierten Nachrichtenmedien geteilt wurden, die zur Weltanschauung von Breitbart und Infowars passen. In verschiedenen Studien konnte gezeigt werden, dass beispielsweise auch populistische Personen Quellen etablierter und hyper-parteilicher Inhalte teilen [7][8][9] – nicht jedes Teilen ist auch eine Zustimmung.“

Auf die Frage, inwiefern ähnliche Maßnahmen – wie Facebooks Anmerkungen unter geteilten Artikeln oder Twitters Nachfragen vor dem Teilen, ob man einen Artikel gelesen hat – bereits wirken:
„Auf Basis der vorliegenden Studie scheinen Interventionen, wie etwa die Frage, ob man den ‚Artikel tatsächlich gelesen habe‘, eine sinnvolle Anregung zu sein – etwas Ähnliches schlagen ja auch die Autoren selbst vor. Im Vorfeld der US-Wahl experimentierte Twitter auch mit der Einschränkung von ‚low-quality sharing‘ wie die Autoren es nennen, also der Verbreitung von Inhalten ohne eigenen Kommentar. Dieses Vorgehen wurde aber inzwischen wieder eingestellt.“

„Allerdings muss man beachten, dass die Hinweise der Plattformen über einen weniger ‚privaten‘ Kanal kommen als die untersuchten Direktnachrichten und auch einen anderen Fokus setzen. Es muss also untersucht werden, ob die Effekte vergleichbar sind. Am Ende läuft es darauf hinaus, dass nur die Plattformen selbst die Daten haben, um die Effektivität derartiger Interventionen umfassend zu bewerten.“

Auf die Frage, wie leicht die in der Studie angedachte „Nachfragefunktion“ implementiert werden könnte:
„Die Umsetzung eines automatisierten Accounts (Social Bots), der sich lediglich mit anderen Nutzer:innen vernetzt und diesen ab und zu eine standardisierte Nachricht schreibt, ist technisch eher einfach. Gleichzeitig ist dieser Account aber verdeckt unterwegs, es ist also eine ethisch nicht ohne weiteres gerechtfertigte Täuschung der Nutzer:innen – die Autoren reflektieren diese ethischen Aspekte im Anhang transparent – vor allem, wenn die Täuschung durch die Plattformen selbst erfolgen würde. Hier ist das transparente Vorgehen, also etwa die Frage, ob man den Artikel vor dem Teilen lesen will, sicher eher im Sinne eines transparenten Umganges.“

„Inwiefern solche standardisierten Aufforderungen durch Plattformen aber den gleichen Effekt haben, wie eine private Nachricht, wird durch die Studie nicht getestet und wäre eine offene Frage für zukünftige Forschung – oder Auskunft durch die Plattformbetreibenden.“

Auf die Frage, wie der Ansatz des „Quality Score“ zu bewerten ist, der Posts und Medien zugeteilt wird und inwiefern solche Simplifizierungen problematisch sind:
„Die Autoren berufen sich bei der Bewertung der Domänen in Studie sieben vor allem auf die Bewertungen professioneller Fact-Checker:innen. Auch wenn Studien zu vergleichbaren alternativen Nachrichtenmedien zeigen, dass nicht alle Inhalte, die auf solchen Seiten geteilt werden, falsch sind [10], werden auf diesen Seiten doch wiederholt Fehlinformationen in den Diskurs eingeflochten [11]. Natürlich handelt es sich dennoch um eine Abstraktion: Ohne eine Detailanalyse der einzelnen geteilten Artikel ist deren Faktizität nicht zu bestimmen.“

Prof. Dr. Nicole Krämer

Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen

„Generell gilt: Das Forschungsteam um Gordon Pennycook ist hoch renommiert in diesem Bereich und hat schon einige systematische und originell geplante Studien vorgelegt. Deren Ergebnisse gehen in eine ähnliche Richtung. Die Tatsache, dass sieben sauber geplante, aufeinander aufbauende Studien durchgeführt werden, spricht für die Güte der Gesamtaussage (gemessen daran, dass Erkenntnisse oft auch aus einzelnen Experimenten und Studien abgeleitet werden).“

„Besonders beeindruckend ist der Befund, dass Personen Nachrichten teilen, die sie selbst nicht unbedingt, oder jedenfalls nicht stark glauben. Das ist dann auch der potenzielle Angriffspunkt für Maßnahmen. Diejenigen, die ohne eigene Motive – beziehungsweise zum Teil sogar gegen die eigenen Motive, keine Falschinformationen zu teilen – achtlos Nachrichten teilen, ohne sie auf Akkuratheit zu prüfen, könnten angeregt werden, diesen Prüfvorgang durchzuführen.“

„Man kann – auch vor dem Hintergrund anderer Studien – aber auch davon ausgehen, dass es Personen gibt, die Falschnachrichten durchaus teilen, weil sie sie glauben und/oder glauben wollen, dies steht aber hier nicht im Fokus. Es ist meines Erachtens auch gerechtfertigt, sich in der hier durchgeführten Forschung spezifisch auf den Bereich der Personen, die auf Basis von fehlender Akkuratheitsprüfung etwas weiterleiten, zu fokussieren. Immerhin kann hier erwartet werden, dass bereits einfache Maßnahmen (Teil-)erfolge bringen können, während das bei ‚Partisanen‘ deutlich schwieriger ist. Das bedeutet aber nicht, dass diese Mechanismen, die bei ‚Partisanen‘ beobachtet wurden, gar nicht greifen.“

Auf die Frage, wie effektiv der vorgestellte Ansatz sein kann:
„Da die vorgeschlagene Maßnahme, die Aufmerksamkeit der Rezipient*innen auf die Akkuratheit der Informationen zu richten – zum Beispiel indem Plattformbetreiber einblenden, dass über die Akkuratheit der Mitteilung nachgedacht werden sollte –, nicht beziehungsweise nur in Ausschnitten im Sinne einer breitenwirksamen Intervention unter realen Bedingungen erprobt wurde, ist es schwierig vorherzusagen, ob dies im Alltag langfristig wirksam wäre. Insbesondere bei Personen, die entweder gewohnheitsmäßig oder auf Basis der Tatsache, dass sie die in der Falschnachricht dargestellte Tendenz teilen, Falschnachnachrichten weiterleiten, ist kein großer Effekt solcher Maßnahmen zu erwarten.“

„Auf der anderen Seite können damit diejenigen erreicht werden, die keine starken Meinungen zu dem entsprechenden Thema vertreten, aber bislang dennoch Falschnachrichten geteilt haben, weil sie zu wenig auf deren Akkuratheit geachtet haben. Da diese Personengruppe in vielen Fällen wahrscheinlich größer ist als die der ‚Partisanen‘, könnten diese verhältnismäßig einfach zu implementierenden Maßnahmen zumindest einen basalen Effekt haben. Ob und wie lange dies wirkt, muss aber weiter empirisch überprüft werden, da auch eine Gewöhnung und ein ebenso gedankenloses ‚Wegklicken‘ dieser Hinweise nach einiger Zeit erwartbar ist.“

Auf die Frage, inwiefern ähnliche Maßnahmen – wie Facebooks Anmerkungen unter geteilten Artikeln oder Twitters Nachfragen vor dem Teilen, ob man einen Artikel gelesen hat – bereits wirken: „Da es bislang keine kontrollierten Studien unter Alltagsbedingungen gibt, ist eine Aussage, ob solche Maßnahmen wirken, schwierig. Sicher ist, dass es kein Allheilmittel sein kann: Zum einen wird ja nach wie vor auch belegt, dass die eigene Voreinstellung einen Einfluss nimmt (sowohl in diesem Artikel als auch in anderen Studien) und man tendenziell lieber etwas teilt, das der eigenen Meinung entspricht. Verfechter einer bestimmten Meinung, die sich durch Falschinformationen bestätigt sehen und dies auch verbreiten wollen, erreicht man also durch solche Maßnahmen kaum beziehungsweise weniger. Zum anderen belegen andere Studien, dass Hinweise, die immer wieder angezeigt werden, auch nach kurzer Zeit ignoriert werden (vergleiche Forschung zu Hinweisen zu Datenschutz und Privatheit).“

Auf die Frage, wie leicht die in der Studie angedachte „Nachfragefunktion“ implementiert werden könnte:
„Die Nachfragefunktion beziehungsweise der Verweis darauf, doch nochmal nachzudenken, könnte erfreulicherweise sehr einfach implementiert werden, da – wie die Autoren auch angeben – vorher gar keine objektive Überprüfung der Korrektheit erfolgen muss, sondern Personen unabhängig vom Wahrheitsgehalt der Nachrichten darauf hingewiesen werden können, die Akkuratheit zu überdenken.“

Auf die Frage, wie der Ansatz des „Quality Score“ zu bewerten ist, der Posts und Medien zugeteilt wird und inwiefern solche Simplifizierungen problematisch sind:
„Generell könnte ein solcher ‚Quality Score‘ hilfreich sein, wenn er denn objektiv und korrekt vergeben werden kann. Unsere eigenen Studien zeigen ebenfalls, dass Menschen sich gerne darauf verlassen, ob eine Quelle Expertise hat, das könnte also ein hilfreicher Hinweisreiz sein, um Menschen bei der Entscheidung zu helfen, ob sie einer bestimmten Quelle glauben sollen oder nicht [12].“

Prof. Dr. Axel Bruns

Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien

„Zunächst einmal zeigt die Studie, dass es doch einen größeren Unterschied zwischen dem Selbstverständnis und den wirklichen Aktivitäten von NutzerInnen sozialer Medien gibt: Zwar beteuern die TeilnehmerInnen der Umfrage die Wichtigkeit akkurater Informationen, doch leiten sie selbst eher unabhängig vom Wahrheitsgehalt auch zweifelhafte Informationen weiter, wenn diese nur ihrer eigenen politischen Ausrichtung entsprechen. Dabei stellt sich allerdings die Frage, wieweit solche Forschungsergebnisse vom extrem polarisierten Zweiparteien-Kontext in den USA auch auf eher konsensorientierte demokratische Systeme mit einer vielfältigeren Parteienlandschaft, wie etwa in Deutschland, übertragbar sind.“

„Das Ergebnis, dass selbst einfache Hinweise auf den Wahrheitsgehalt von Informationen das Verhalten von NutzerInnen beeinflussen können, ist interessant, müsste aber noch in größeren und längeren Studien und außerhalb eines eher artifiziellen Studienaufbaus getestet werden. Es besteht auch die Möglichkeit, dass der Effekt solcher Hinweise abklingt, je öfter sie wiederholt werden: NutzerInnen könnten sich an solche Hinweise gewöhnen und sie übersehen, wenn sie zur Routine bei der Nutzung dieser Plattformen werden.“

„Dies gilt im Übrigen auch für die von verschiedenen Plattformen schon implementierten Maßnahmen, um das unbesehene Weiterleiten von möglicherweise problematischen Informationen einzudämmen. Diese zeigen sicherlich für den Moment eine gewisse Wirkung, aber es muss sich noch zeigen, ob sie auch längerfristig die Verhaltensweisen der NutzerInnen beeinflussen werden. Eventuell wäre es hier wichtig, die Implementation von Zeit zu Zeit zu variieren, um die Entstehung einer Routine im Umgang solcher Hinweise – oder in deren Umgehung – zu verhindern.“

„Der abschließende Vorschlag des Forscherteams, NutzerInnen ab und zu dazu einzuladen, den Wahrheitsgehalt bestimmter Nachrichten zu bewerten, um ihnen dieses Thema damit präsent zu halten, ist zwar interessant, aber am Ende trotzdem wenig praktikabel. Viele NutzerInnen würden eine solche Intervention sicherlich eher als eine unerwünschte Störung betrachten und sie zu umgehen versuchen, als dass sie sich offen mit dieser Fragestellung beschäftigen würden. Hierbei muss auch daran erinnert werden, dass die große Mehrheit der NutzerInnen populärer Social-Media-Plattformen diese primär für andere Zwecke als den Umgang mit Nachrichten nutzt. Auch wenn solche NutzerInnen vielleicht allgemein zustimmen würden, dass akkurate Informationen von großer gesellschaftlicher Wichtigkeit sind, werden sie es sich wahrscheinlich verbitten, dass ihre spezifische private Nutzung von sozialen Medien durch Fragen zum Wahrheitsgehalt aktueller Nachrichten unterbrochen wird.“

„Insgesamt muss schließlich auch klargestellt werden, dass der hier vorgeschlagene Ansatz in jedem Fall eher das Verhalten der Mehrheit der NutzerInnen sozialer Medien verändern wird; die am stärksten polarisierten NutzerInnen werden sicherlich weiterhin eher von ideologischen Motiven statt vom Wahrheitsgehalt der von ihnen weitergeleiteten Informationen angetrieben werden. Das macht die Ergebnisse dieser Studie nicht weniger nützlich, zeigt aber an, dass der Umgang mit extrem polarisierten TeilnehmerInnen immer noch andere Maßnahmen benötigen wird.“

Angaben zu möglichen Interessenkonflikten

Prof. a.Z. Dr. Lena Frischlich: „Interessenskonflikte liegen keine vor.“

Prof. Dr. Nicole Krämer: „Ich habe keinen Interessenkonflikt zu vermelden.“

Alle anderen: Keine Angaben erhalten.

Primärquelle

Primärquelle: Pennycook G et al. (2021): Shifting attention to accuracy can reduce misinformation online. Nature. DOI: 10.1038/s41586-021-03344-2.

Literaturstellen, die von den Experten zitiert wurden

[1] Schulz A et al. (2020): Are news outlets viewed in the same way by experts and the public? A comparison across 23 European countries. Reuters Institute for the Study of Journalism.

[2] Pennycook G et al. (2020): Predictors of attitudes and misperceptions about COVID-19 in Canada, the U.K., and the U.S.A. PsyArXiv. DOI: 10.31234/osf.io/zhjkp.
Es handelt sich um eine noch nicht wissenschaftlich begutachtete (peer reviewed) Studie, die daher mit Vorsicht zu behandeln ist.

[3] Pennycook G et al. (2019): Who falls for fake news? The roles of bullshit receptivity, overclaiming, familiarity, and analytic thinking. Journal of Personality; 88 (2): 185-200. DOI: 10/gf8tdb.

[4] Chaiken S. (1987): The heuristic model of persuasion. In Zanna CP et al: Social influence: The Ontario Symposium (5th Edition, S. 3-39). Erlbaum.

[5] Petty RE et al. (1983): Central and peripheral routes to advertising effectiveness: The moderating role of involvement. Journal of Consumer Research; 10 (2): 135-146. DOI: 10.1086/208954.

[6] Lang A (2000): The Limited Capacity Model of Mediated Message Processing. Journal of Communication; 50 (1): 46-70. DOI: 10.1111/j.1460-2466.2000.tb02833.x.

[7] Bachl, M. (2018): (Alternative) media sources in AfD-centered Facebook discussions. Studies in Communication and Media; 7 (2): 256-270. DOI: 10.5771/2192-4007-2018-2-128.

[8] Haller A et al. (2018): Paradoxical populism: how PEGIDA relates to mainstream and alternative media. Information Communication and Society; 22 (12). DOI: 10/gc8t46

[9] Puschmann C et al. (2016): Information Laundering and Counter-Publics: The News Sources of Islamophobic Groups on Twitter. The Workshops of the Tenth International AAAI Conference on Web and Social Media Social Media in the Newsroom: Technical Report.

[10] Bader K et al. (2020): Jenseits der Fakten: Deutschsprachige Fake News aus Sicht der Journalistik. In Steinebach M et al.: Desinformationen aufdecken und bekämpfen. Interdisziplinäre Ansätze gegen Desinformationskampagnen und für Meinungspluralität. (Bd. 45). Nomos Verlag.

[11] Mourão RR et al. (2019): Fake News as Discursive Integration: An Analysis of Sites That Publish False, Misleading, Hyperpartisan and Sensational Information. Journalism Studies; 20 (14): 2077-2095. DOI: 10/gftc6p.

[12] Winter S et al. (2012): Selecting Science Information in Web 2.0: How Source Cues, Message Sidedness, and Need for Cognition Influence Users' Exposure to Blog Posts. Journal of Computer-Mediated Communication; 18(1): 80-96. DOI: 10.1111/j.1083-6101.2012.01596.x.