Zum Hauptinhalt springen
06.05.2022

Wirkung von Hinweisen zur Verlässlichkeit von Medien

     

  • Browser-Hinweise zur Verlässlichkeit einer Nachrichtenquelle haben laut Studie im Schnitt kaum einen Effekt
  •  

  • User, die häufig fragwürdige Quellen konsumieren, scheinen dadurch aber öfter verlässlichere Medien zu nutzen
  •  

  • Forschende: wichtig, genau diese User zu erreichen, in der Praxis aber schwer umsetzbar
  •  

Hinweise eines Browser-Add-ons zur Verlässlichkeit einer Nachrichtenquelle haben keinen signifikanten Einfluss darauf, ob Nutzerinnen und Nutzer grundsätzlich mehr verlässliche Medien konsumieren. Zu diesem Ergebnis kommen die Autoren einer Studie, die am 06.05.2022 im Fachjournal „Science Advances“ erschienen ist (siehe Primärquelle). Die Autoren fanden aber auch heraus, dass die zehn Prozent der Probandinnen und Probanden, die am häufigsten Falschinformationen konsumierten, qualitativ hochwertigere Medien ansehen, wenn sie das Add-on einige Wochen lang genutzt hatten.

Für ihre Studie haben die Autoren 3337 Personen befragt und bei 968 davon Daten zum Browsing-Verhalten ausgewertet. Ein Teil der Teilnehmenden installierte anschließend das frei verfügbare aber mittlerweile kostenpflichtige Browser-Add-on „Newsguard“. Dieses Programm kategorisiert eine Website als verlässliche oder nicht verlässliche Quelle, als Quelle mit nutzergenerierten Inhalten oder als Satire. Dazu wird neben der URL, wenn man die Seite besucht – oder dem Link, wenn die Seite als Verlinkung in einer Suchmaschine oder auf sozialen Medien angezeigt wird –, ein Schild als Hinweis eingeblendet, der je nach Art der Quelle eine andere Farbe hat: Grün bei verlässlichen Quellen, Rot bei nicht verlässlichen. Die Entscheidung, wie Websites zu beurteilen sind, treffen bei Newsguard nach eigener Aussage Journalistinnen und Journalisten nach festgelegten Kriterien [I].

Die eine Gruppe nutzte ungefähr drei Wochen lang Newsguard, das Browsing-Verhalten der anderen Gruppe blieb unverändert. Vor und nach dieser Periode wurden die Teilnehmenden befragt.

Die Befunde bestätigten zunächst vorherige Forschungsbefunde zur Prävalenz von Desinformation: Personen, die Nachrichten vor allem aus nicht-verlässliche Quellen beziehen, machen nur einen sehr geringen Teil der Bevölkerung aus. Über 65 Prozent der 968 Teilnehmenden, die Informationen zu ihrem Browsing-Verhalten geteilt hatten, besuchten in den drei Wochen keine einzige Website, die von Newsguard als nicht-verlässlich eingestuft wurde. Und bei unter zwölf Prozent machte der Besuch solcher Seiten über fünf Prozent ihres Nachrichtenkonsums aus.

Die Autoren fanden aber auch heraus, dass die Verwendung von Newsguard im Durchschnitt nicht dafür sorgte, dass die Teilnehmerinnen und Teilnehmer verlässlichere Medien konsumierten. Darüber hinaus sorgten die Hinweise von Newsguard auch nicht dafür, dass die Teilnehmenden bekannten Falschinformationen weniger glaubten und änderten auch nichts an ihrem Vertrauen in Medien. Laut den Autoren können diese mangelnden Effekte aber auch darauf zurückzuführen sein, dass die Hinweise zur Verlässlichkeit einer Quelle recht subtil waren und auch nur in wenigen Kontexten zu sehen waren – eben nur, wenn die User eine solche Seite aufgerufen hatten oder ihnen ein entsprechender Link auf sozialen Medien oder in einer Suchmaschine angezeigt worden war.

Einen Effekt fanden die Forscher allerdings bei den zehn Prozent der Personen, bei denen die konsumierten Nachrichten den geringsten „Qualitätsscore“ von Newsguard bekamen – die also am meisten nicht-verlässliche Quellen konsumierten. Bei diesen sorgte die Nutzung des Add-ons dafür, dass sie im Durchschnitt verlässlichere Medien anschauten: Der von Newsguard vergebene „news reliability score“ stieg durchschnittlich um 5,4 Prozent in der ersten erfassten Periode von einem Monat und 8,6 Prozent in der darauffolgenden Periode von zwei Wochen.

Dieser Befund ist potenziell sehr relevant, da gerade jene Personen, die viele Falschinformationen sehen und häufiger fragwürdige Medien konsumieren, als schwerer durch Maßnahmen zu erreichen gelten. Um diese Befunde und deren Implikationen einzuschätzen und die Sinnhaftigkeit und Wirkung von Hinweisen zur Verlässlichkeit von Medien zu beurteilen, hat das SMC Expertinnen und Experten befragt.

Übersicht

     

  • Prof. Dr. Christian Hoffmann, Professor für Kommunikationsmanagement, Institut für Medien- und Kommunikationswissenschaft, Universität Leipzig
  •  

  • Dr. Anne Schulz, Senior Research and Teaching Associate, Institut für Kommunikationswissenschaft und Medienforschung, Universität Zürich, Schweiz
  •  

  • Dr. Philipp Müller, Akademischer Rat am Institut für Medien- und Kommunikations­wissenschaft, Universität Mannheim
  •  

Statements

Prof. Dr. Christian Hoffmann

Professor für Kommunikationsmanagement, Institut für Medien- und Kommunikationswissenschaft, Universität Leipzig

„Aslett und Kollegen legen eine methodisch anspruchsvolle und überzeugende Studie vor, die Autoren sind Experten im Themengebiet und haben bereits mehrfach zu Misinformation in Social Media publiziert. Ein großer Vorteil der vorliegenden Studie ist, dass es sich um ein Feldexperiment handelt. Das untersuchte Nutzerverhalten ist damit realistischer als ein in Laborexperimenten nachgestelltes. Solche Feldexperimente haben – gerade im Feld der Misinformationsforschung – häufig die Folge, dass zuvor vermutete Zusammenhänge plötzlich nicht mehr nachweisbar sind.“

„Dies kann damit zu tun haben, dass Nachrichten oder politische Inhalte nur einen sehr kleinen Anteil dessen darstellen, was Social-Media-Nutzer üblicherweise online sehen. Und Misinformation oder Fake News wiederum sind nur ein sehr kleiner Teil dieser Nachrichteninhalte, da Nutzer in aller Regel auf seriöse journalistische Quellen zugreifen [1]. Eine positive Folge dieses realen Nutzungsverhaltens ist, dass Effekte von Online-Misinformation in realistischen Nutzungsszenarien kaum nachweisbar sind [2]. Umgekehrt ist eine negative Folge, dass auch Effekte von Maßnahmen zur Bekämpfung von Misinformation in realistischen Nutzungsszenarien verschwindend gering sind.“

„So würde ich auch die vorliegende Studie interpretieren: Da Nutzer – relativ zu allen gesehenen Inhalten – wenig Nachrichten online konsumieren, und diese Nachrichten weit überwiegend aus seriösen Quellen stammen, ist es unwahrscheinlich, dass Qualitätskennzeichen einen spürbaren Einfluss auf das Nutzungsverhalten haben. Tatsächlich zeigt die Studie über alle Teilnehmer hinweg keinen Effekt auf Verhalten, Einstellungen oder Wissen. Es stellt sich bei durchschnittlichen Internetnutzern zudem die Frage, inwiefern sie Qualitätskennzeichen wirklich wahrnehmen und verstehen. Dies wurde in der vorliegenden Untersuchung nicht adressiert. Es ist denkbar, dass im täglichen Nutzungsverhalten solche Kennzeichen einfach übersehen oder nicht verstanden werden.“

„Frühere Studien haben gezeigt, dass Fake News vor allem durch eine sehr kleine Gruppe sehr politischer und politisch eher randständiger Nutzer geteilt werden. Vor diesem Hintergrund ist das Ergebnis der vorliegenden Studie interessant, dass genau in dieser Gruppe durchaus ein Effekt der Qualitätskennzeichen nachgewiesen werden konnte. Wenn dieser Effekt stabil wäre, könnten Kennzeichen also durchaus zu einer geringeren Verbreitung von Misinformation beitragen – als eine Art gezielte Intervention bei den besonders anfälligen Nutzern. Mir scheint aber noch nicht klar, wie langanhaltend der hier gezeigte Effekt ist. Die Intervention umfasst einen Zeitraum von etwa 14 Tagen, Effekte stellen sich vor allem danach ein, was die Autoren als einen Lerneffekt interpretieren. Umgekehrt ist aber durchaus möglich, dass der so identifizierte Effekt wieder abklingt, wenn die kleine Gruppe der Fake-News-affinen Nutzer sich an das Vorhandensein der Siegel gewohnt haben ([3] zu Fact-Checking-Effekten) (siehe auch das SMC-Angebot zu dieser Studie [4]; Anm. d. Red.).“

„Neuere Forschung deutet darauf hin, dass die kleine Gruppe der Fake-News-affinen Nutzer letztlich keinen großen Wert auf die Frage legen, ob eine Nachricht nun zutreffend ist oder nicht. Oft ist ihnen wichtiger, dass sie in das eigene Weltbild passt, für das politische Gegenüber schädlich ist, oder einfach unterhaltsam ist [5]. Vor diesem Hintergrund ist es unwahrscheinlich, dass Hinweise auf die Zuverlässigkeit oder Qualität einer Nachricht gerade bei der kleinen Gruppe der anfälligen Nutzer eine große Wirkung zeitigen.“

Dr. Anne Schulz

Senior Research and Teaching Associate, Institut für Kommunikationswissenschaft und Medienforschung, Universität Zürich, Schweiz

„Die Studie zeigt, dass es ohnehin nur sehr wenige Menschen – in den USA – gibt, die sich primär auf unzuverlässige Informationsquellen stützen. Die Quellenauswahl der meisten Menschen ist also ohnehin schon relativ gut. Entsprechend klein ist dann auch das Potenzial für das NewsGuard-Add-on etwas zum Besseren hin zu beeinflussen. Das größte Potenzial besteht aber in der Gruppe derjenigen, die verstärkt unzuverlässige Quellen nutzen. Hier konnte die Studie dann auch einen Verbesserungseffekt finden und der ist spannend und hervorzuheben.“

„Die Studie nutzt ein vergleichsweise aufwendiges Design, das sich aus verschiedenen Datenquellen zusammensetzt – Befragungs- und Beobachtungsdaten. Zudem erstreckt sich die Studie über einen Zeitraum von zwei Monaten. Auch handelt es sich hier nicht um eine klassische Laborstudie, sondern man hat die alltägliche Mediennutzung von Nutzer:innen an ihren eigenen Endgeräten beobachtet (‚in the wild‘). Das ist einerseits wünschenswert und zu loben, anderseits steigt mit der Komplexität von Forschungsdesigns immer auch gleich deren Fallhöhe. Dennoch scheint das Vorgehen aus meiner Sicht hier nachvollziehbar und die Befunde belastbar. Einige Messungen – beispielsweise das Vertrauen in die Medien – erscheinen eher unüblich, aber da diese nicht im Zentrum der Analyse stehen, sehe ich auch da kein wesentliches Problem.“

„Dass ein Teil der Fragestellungen nicht präregistriert wurde, finde ich nicht problematisch. Vielmehr muss positiv hervorgehoben werden, dass überhaupt ein Teil der Analyse präregistriert wurde. Es ist dann nicht unüblich, dass zusätzliche Analysen gemacht werden, um, wie in diesem Fall, nicht signifikante Befunde besser einordnen zu können.“

Auf die Frage, wie überraschend es ist, dass die Autoren nur Wirkungen bei den zehn Prozent der User feststellen, die am meisten nicht-verlässliche Quellen konsumierten und wie wichtig der mögliche Effekt ist:
„Dieser Befund leuchtet ein, wenn man sich die Datenbeschreibung anschaut, die die Autoren auch offenlegen. Die meisten Menschen nutzten ohnehin fast nur Quellen, die von NewsGuard als vertrauenswürdig oder zuverlässig eingestuft werden. Für diese Nutzer:innen kann es kaum einen Verbesserungseffekt geben. Das Potenzial etwas zu verändern, ist in der kleinen Gruppe am größten, die verstärkt unzuverlässige Quellen nutzt – und genau in dieser Gruppe finden die Wissenschaftler dann auch den gesuchten Effekt.“

„Der Effekt in dieser kleinen Gruppe ist dennoch etwas überraschend, wenn man sich vorstellt, dass NewsGuard plötzlich Quellen als unzuverlässig labelt, die in dieser Gruppe aber womöglich seit langer Zeit für sehr vertrauenswürdig gehalten werden. Dass dann hier offenbar doch dem NewsGuard-Rating gefolgt wurde und die Stimmung nicht gegen NewsGuard selbst kippte, finde ich interessant. Man hätte auch genau das Gegenteil erwarten können. Hier wäre es wünschenswert, wenn in Zukunft größere Stichproben aus genau dieser Gruppe gezogen werden, um zu schauen, ob sich dieser Befund replizieren lässt.“

Auf die Frage nach der Wirkung solcher oder ähnlicher Hinweise zur Vertrauenswürdigkeit einer Quelle:
„Es ist positiv zu bewerten, dass dieses Add-on relativ sparsam beziehungsweise minimalinvasiv arbeitet. Nutzer:innen werden nicht überflutet mit Pop-ups oder Informationen, sondern ein simples Label bietet hier eine gute Hilfestellung – und nur für die, die das möchten (zumindest noch). Allerdings muss natürlich immer gefragt werden, wie es zu diesen Labels kommt. Wer sind die Expert:innen, die hinter den Labels stehen? Werden hier auch falsche Entscheidungen getroffen und wer würde das überprüfen? Beispielsweise kam es in der Vergangenheit schon dazu, dass NewsGuard Label korrigieren musste, nachdem sich einzelne Nachrichtenorganisationen über ein rotes Label beschwert hatten. Das zeigt, wie kompliziert dieses Unterfangen ist.“

„Grundsätzlich denke ich, dass vielseitige Ansätze vielversprechend sind. Neben solchen Labels oder Nudges können Schulungen oder Trainings in Sachen Medienkompetenz – beispielsweise in Schulen, Ausbildung und am Arbeitsplatz – eventuell nachhaltigere Wirkung erzielen. Ich denke, man muss aber auch akzeptieren, dass es immer Menschen geben wird, die sich nicht helfen lassen wollen, die ein gefestigtes Weltbild haben, das vielleicht abweicht vom eigenen und die daher auch andere Nachrichtenquellen für glaubwürdig halten und nutzen. Keine Intervention wird hier je etwas bewirken.“

Auf die Frage, wie relevant diese Befunde in der Praxis überhaupt sind:
„Mir stellt sich schon die Frage, ob Menschen mit einer solchen Nachrichtennutzung überhaupt je von selbst darauf kommen würden, ein Add-on wie NewsGuard zu installieren. Die Entscheidung für ein News Outlet jenseits des sogenannten Mainstreams muss relativ bewusst passieren, immerhin handelt es sich um eine abweichende Entscheidung. Ich vermute, dass Menschen, die solche Entscheidungen für sich treffen, auf ein Tool wie NewsGuard nicht angewiesen sind – sie brauchen diese Hilfestellung nicht. Auch wäre ich interessiert daran, inwiefern NewsGuard in entsprechenden Kreisen als Teil des ‚verhassten Mainstreams‘ gesehen wird. Der Eindruck könnte spätestens dann entstehen, wenn NewsGuard eine für vertrauenswürdig gehaltene Quelle plötzlich als nicht vertrauenswürdig kennzeichnet. Vielleicht wird dann NewsGuard nicht vertraut – auch wenn die vorliegende Studie hier einen etwas optimistischeren Befund zeigt.“

Dr. Philipp Müller

Akademischer Rat am Institut für Medien- und Kommunikations­wissenschaft, Universität Mannheim

„Die Studie überprüft in einem Feldexperiment den Effekt der Nutzung des Newsguard-Browser-Plugins. Dieses gibt Medien-Nutzer:innen mittels kleiner Icons in Ampelfarben, die auf Suchmaschinen und Social-Media-Seiten eingeblendet werden, einen Hinweis darauf, ob eine Nachrichtenwebsite vertrauenswürdig ist. Dies soll Menschen dazu animieren, seltener nicht vertrauenswürdige Angebote zu nutzen, zum Beispiel populistische Alternativmedien. Die Studie arbeitet dabei mit einer Kombination aus Browser-Tracking-Daten und Panel-Befragungsdaten und entspricht damit dem State-of-the-Art der Online-Nutzungsforschung. Das Forschungsdesign und die durchgeführten Datenanalysen überzeugen mich. Der einzige kritische Punkt, den es bei Experimentalstudien allerdings immer zu beachten gilt, besteht aus meiner Sicht darin, dass hier ein Teil der Teilnehmenden von den Forschern aktiv dazu bewegt wurde, das Newsguard-Plugin zu verwenden. Inwiefern die sich ergebenden Befunde auf reale Nutzungssituationen übertragen lassen, in denen Nutzer:innen keine solchen Instruktionen und Incentivierungen erhalten, steht damit ein Stück weit infrage.“

„Die Studie kommt zu dem Ergebnis, dass über alle Versuchspersonen hinweg die Benutzung des Newsguard-Plugins nicht dazu führt, dass häufiger vertrauenswürdige Online-Nachrichtenquellen genutzt werden. Dieser Befund ist zunächst ernüchternd, da das Newsguard-Label mit seinem Ampelsystem an sich aus wahrnehmungspsychologischer Sicht durchaus dazu geeignet erscheint als sogenannter ‚heuristischer Hinweisreiz‘ die Nutzung nicht vertrauenswürdiger Quellen einzuschränken. Ein Hauptproblem der Studie könnte allerdings darin bestehen, dass derartige Websites selbst in den USA, wo die Studie durchgeführt wurde, ohnehin nur von einem kleineren Teil der Internet-Nutzer:innen wenigstens gelegentlich genutzt werden – in Deutschland sind es zwischen zehn und 16 Prozent, je nach Untersuchungszeitraum [6]. Das macht weitere Verringerungseffekte schwer messbar – der sogenannte Bodeneffekt.“

„Insofern erscheint es folgerichtig, dass die Studie zu dem Ergebnis kommt, dass das Newsguard-Plugin bei denjenigen Nutzer:innen mit der höchsten Nutzung fragwürdiger Nachrichtenquellen doch einen messbaren Effekt zeigt. Denn in diesem Segment kommt der Bodeneffekt weniger zum Tragen. Gleichzeitig handelt es sich bei dieser Personengruppe natürlich auch um diejenigen, die am ehesten erreicht werden sollten. Im Prinzip macht dieser Befund also Hoffnung darauf, mit Newsguard oder vergleichbaren Nachrichten-Empfehlungs-Labels positive Effekte zu erzielen. Hierin besteht nun allerdings auch die Krux. Denn in der vorliegenden Studie wurden die Teilnehmer:innen wie gesagt dazu (vermutlich mit einem kleineren Geldbetrag) incentiviert, Newsguard zu nutzen. Außerhalb dieses Studien-Settings müssten sie von sich aus dazu bewegt werden. Dass der Service von Newsguard inzwischen kostenpflichtig ist, hilft jedoch sicher nicht dabei, diejenigen Zielgruppen zu erreichen, die viele dubiose Nachrichtenquellen nutzen.“

„Wie wir aus früherer Forschung wissen, weist diese Personengruppe hohe Überschneidungen mit der Wählerschaft populistischer Parteien auf, hat ein geringes Vertrauen in gesellschaftliche Institutionen und hängt tendenziell stärker verschwörungstheoretischen Weltdeutungen an. Dies sind schlechte Voraussetzungen für eine freiwillige Nutzung von Newsguard, erst recht in Kombination mit Abogebühren. Selbst wenn das Plugin wieder kostenfrei angeboten würde, müssten jedoch vermutlich Maßnahmen ergriffen werden, um es in der entsprechenden Zielgruppe zu verbreiten – zum Beispiel durch eine Vorinstallation des Plugins bei der Installation eines Web-Browsers wie Chrome oder Edge. Hierbei entsteht allerdings die Gefahr einer Reaktanzreaktion. Das Newsguard-Label könnte dann von tendenziell institutionenkritischen Nutzer:innen nicht vertrauenswürdiger Nachrichtenangebote als Teil der politischen und medialen ‚Elitenverschwörung‘ interpretiert werden, die die Bevölkerung im Sinne des populistischen Narrativs mutmaßlich hintergeht – und folglich auch von der Nutzung vermeintlich alternativer Nachrichtenquellen abhalten will.“

„Ob ein Angebot wie Newsguard also außerhalb einer Experimentalstudie breitenwirksam positive Effekte auf die Auswahl vertrauenswürdiger Nachrichtenquellen haben könnte, steht aus meiner Sicht trotz der ermutigenden Studienergebnisse sehr infrage.“

Angaben zu möglichen Interessenkonflikten

Dr. Anne Schulz: „Keine.“

Dr. Philipp Müller: „Es bestehen keine Interessenkonflikte.“

Alle anderen: Keine Angaben erhalten.

Primärquelle

Aslett K et al. (2022): News credibility labels have limited average effects on news diet quality and fail to reduce misperceptions. Science Advances. DOI: 10.1126/sciadv.abl3844.

Literaturstellen, die von den Experten zitiert wurden

[1] Wojcieszak M et al. (2021): No Polarization From Partisan News: Over-Time Evidence From Trace Data. The International Journal of Press/Politics. DOI: 10.1177/19401612211047194.

[2] Allen J et al. (2020): Evaluating the fake news problem at the scale of the information ecosystem. Science Advances. DOI: 10.1126/sciadv.aay3539.

[3] Nyhan B et al. (2022): The ephemeral effects of fact-checks on COVID-19 misperceptions in the United States, Great Britain and Canada. Nature Human Behaviour. DOI: 10.1038/s41562-021-01278-3.

[4] Science Media Center (2022): Effekt von Faktenchecks auf Falschwahrnehmungen zu COVID-19. Research in Context. Stand: 03.02.2022.

[5] Alta S et al. (2021). “If This account is True, It is Most Enormously Wonderful”: Interestingness-If-True and the Sharing of True and False News. Digital Journalism. DOI: 10.1080/21670811.2021.1941163.

[6] Müller P et al. (2021): Populist alternative news use and its role for elections: Web-tracking and survey evidence from two campaign periods. New Media & Society. DOI: 10.1177/14614448211032969.

Literaturstellen, die vom SMC zitiert wurden

[I] NewsGuard: NewsGuard Ratings.