Zum Hauptinhalt springen
30.08.2023

Extremistische und alternative Youtube-Videos wenig gesehen

     

  • die meisten Videos zu alternativen und extremistischen Inhalten werden nur von einem geringen Anteil der User gesehen
  •  

  • Ergebnisse könnten Theorie infrage stellen, dass der Youtube-Algorithmus User häufig radikalisiert
  •  

  • unabhängige Forschende: gute Studie, bestätigt Stand der Forschung, Rolle von sozialen Medien bei Radikalisierung oft übertrieben
  •  

Der Großteil der Youtube-Videos zu alternativen und extremistischen Inhalten wird nur von einem geringen Anteil der Nutzerinnen und Nutzer gesehen. Zu diesem Ergebnis kommt eine Studie, die am 30.08.2023 im Fachjournal „Science Advances“ veröffentlicht wurde (siehe Primärquelle).

Die Autorinnen und Autoren der aktuellen Studie haben für ihre Arbeit Umfragedaten zu den Einstellungen der befragten User sowie deren Browserdaten von Juli bis Dezember 2020 ausgewertet. Dabei fanden sie unter anderem heraus, dass nur eine kleine Gruppe mit durchschnittlich höherer Tendenz zu Sexismus und Rassismus den Großteil der Videos von im Sinne der Studie als alternativ oder extremistisch eingestuften Kanälen sieht. Alternative Kanäle sind laut der in der Studie verwendeten Definition solche, die kontroverse Themen diskutieren und dabei versuchen, diskreditierte Ansichten zu legitimieren, indem sie sie als marginalisierte Standpunkte darstellen. Bei der Erstellung der Liste der alternativen und extremistischen Kanäle stützten die Forschenden sich darüber hinaus auf bereits in der Literatur existierende Listen.

Der überwiegende Großteil der Nutzerinnen und Nutzer auf der Plattform schaute sich aber nie solche Videos an. Nur 15,4 Prozent der User sahen in dem knappen halben Jahr überhaupt mindestens ein Video von alternativen Kanälen, nur 6,1 Prozent sahen ein Video der extremistischen Kanäle. Zudem schauten Abonnentinnen und Abonnenten der jeweiligen Kanäle die Videos im Durchschnitt viel länger, User ohne Abo des entsprechenden Kanals dagegen im Durchschnitt nur sehr kurz: 62,2 Minuten wöchentlich (Abonnentinnen und Abonnenten) gegenüber 0,2 Minuten (andere) bei alternativen Kanälen; 14,6 Minuten (Abonnentinnen und Abonnenten) gegenüber 0,04 Minuten (andere) bei extremistischen Kanälen.

Die Forschenden haben auch untersucht, auf welchem Weg Personen zu den jeweiligen Videos gefunden haben. Der Großteil kam von anderen Youtube-Videos. Personen, die von als „Mainstream“ eingestuften sozialen Medien kamen, landeten eher bei alternativen Kanälen, User von „alternativen“ sozialen Medien häufiger bei extremistischen. Empfehlungen auf Youtube-Videos erreichten aber nur selten Personen, die sich vorher gar nicht mit Videos aus diesen Bereichen befasst hatten: Nur drei Prozent der Probandinnen und Probanden folgten in den untersuchten Monaten einem Link auf ein Video eines als alternativ oder extremistisch eingestuften Kanals, ohne vorher einen anderen alternativen oder extremistischen Kanal abonniert zu haben.

Diese Befunde könnten Aufschluss darüber geben, wie weit polarisierende Inhalte auf Youtube wirklich verbreitet sind. Hinzu kommt die wichtige Frage, inwiefern die Empfehlungsalgorithmen von Youtube den Nutzerinnen und Nutzern der Plattform immer stärker polarisierende oder extremistische Inhalte vorschlagen, um ihr Interesse aufrecht und sie auf der Plattform zu halten. Laut dieser „Rabbit-Hole-Hypothese“ kann das dazu führen, dass unbedarfte User durch den Youtube-Algorithmus radikalisiert werden. Nach den Ergebnissen der Studie stellen die Autorinnen und Autoren aber infrage, inwiefern die „Rabbit-Hole-Hypothese“ auf Youtube zutrifft. Sie betonen aber, dass dies aufgrund von Limitationen der Studie noch nicht abschließend zu sagen ist – insbesondere da Youtube seinen Algorithmus 2019, vor dem Untersuchungszeitraum, umgestellt hat und somit nicht untersucht werden kann, ob der Algorithmus vorher zu mehr Radikalisierung geführt hat.

Übersicht

     

  • Dr. Josephine Schmitt, wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum
  •  

  • Prof. Dr. Fabian Prochazka, Juniorprofessor für Kommunikationswissenschaft, Universität Erfurt
  •  

  • Dr. Sabrina Heike Kessler, Senior Research and Teaching Associate, Institut für Kommunikationswissenschaft und Medienforschung, Abteilung Wissenschaftskommunikation, Universität Zürich, Schweiz
  •  

  • Prof. Dr. Curd Knüpfer, Juniorprofessor für Politikwissenschaft, Freie Universität Berlin
  •  

  • Prof. Dr. Joachim Allgaier, Professor für Kommunikation und Digitalisierung, Hochschule Fulda – University of Applied Sciences
  •  

Statements

Dr. Josephine Schmitt

wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum

Methodik der Studie

„Die vorliegende Studie ist eine der wenigen in diesem Themenfeld, die Verhaltens- und Befragungsdaten miteinander verknüpfen. Die Studie schließt daher eine wichtige Lücke in der bisherigen Forschungslandschaft. Die Befunde und ihre Interpretationen sind vor dem Hintergrund der methodischen Anlage der Studie durchaus schlüssig.“

„Nichtsdestotrotz ist sie von Limitationen begleitet, die die Autor:innen aber auch selbst kritisch reflektieren. Die Autor:innen können beispielsweise keine kausalen Schlüsse aus ihren Ergebnissen ziehen. Daher gibt es keine Entwarnung, dass der Youtube-Algorithmus nicht großflächig empfiehlt und daher Radikalisierungsprozesse begünstigt. Die gender- und herkunftsbezogenen Ressentiments, die in einem engen Zusammenhang mit der Nutzung alternativer und extremistischer Inhalte stehen, können auch erst durch den Konsum von Social-Media-Inhalten – vielleicht vermittelt über Algorithmen – zustande gekommen sein.“

„Eine weitere Einschränkung ist die Selbstselektion von Teilnehmenden. Sie mussten sich aktiv für die Teilnahme an der Studie entscheiden. Es ist daher auch denkbar, dass sich Personen, die über extreme Weltbilder verfügen, tendenziell weniger für die Teilnahme an einer solchen Studie entscheiden und so die Ergebnisse die Realität im Hinblick auf den Konsum alternativer und extremistischer Inhalte doch etwas unterschätzen.“

Stand der Forschung zur Wirkung von Youtube und zur „Rabbit-Hole-Hypothese

„Die vorliegende Studie stützt die Befunde der aktuellen Forschung zur ‚Rabbit-Hole-Hypothese‘. Es gibt einerseits Arbeiten, die nahelegen, dass der Youtube-Algorithmus unproblematische Inhalte mit problematischen Inhalten verknüpft. Die Hinweise darauf, dass emotionalisierende und polarisierende Inhalte – zum Beispiel alternative, extremistische Inhalte – von Plattformalgorithmen bevorzugt werden, da sie mehr Interaktionen und Engagement der Nutzenden hervorrufen, unterstützen diese Ergebnisse. In anderen Worten: Der Algorithmus kann den Weg zu extremistischen Angeboten ebnen. Bisherigen Studien liefern uns aber kaum Informationen über das Ausmaß und die Menge an Nutzenden, die davon betroffen sind. Aufgrund der Ergebnisse der vorliegenden Studie wissen wir, dass nur ein kleiner Teil der Nutzenden über die Algorithmen mit politisch problematischen Inhalten in Kontakt kommt.“

„Auf der anderen Seite verdeutlichen Studien aber auch, dass die Algorithmen den meisten Nutzer:innen eher liberale, unproblematische Inhalte empfehlen, teilweise können sie das Informationsrepertoire der Social-Media-Nutzenden sogar durch die Präsentation vielfältiger Perspektiven erweitern. Es kommen eher diejenigen Personen mit extremistischen Inhalten in Kontakt, die ohnehin eine Präferenz für die präsentierten Narrative und Weltbilder haben. Dieser Kontakt kann durch die Plattformalgorithmen, insbesondere aber auch durch Empfehlungen aus dem persönlichen Umfeld der Personen hergestellt werden.“

Unterschied zwischen dem Stand der Forschung und der öffentlichen Debatte

„Extremistische Inhalte in den sozialen Medien können die gesellschaftliche Spaltung begünstigen und die Demokratie gefährden. Social-Media-Plattformen tragen ihren Teil zur einfachen Produktion und Zugänglichkeit derartiger Inhalte bei; die Bedeutung der Plattformalgorithmen kann dabei aus wissenschaftlicher Perspektive nicht ausgeschlossen werden. Youtube ist in diesem Zusammenhang nur ein Beispiel unter vielen. Im Hinblick auf Algorithmen und die Gefahren extremistischer Inhalte wird zuletzt vor allem auch Tiktok als stark algorithmen- und rewardbasierte Plattform intensiv diskutiert.“

„In der öffentlichen Debatte wird die Rolle von Plattformalgorithmen – egal welcher Plattform – oft stark vereinfacht dargestellt. Zuweilen wird die Bedeutung von Algorithmen und sozialen Medien im Rahmen von Radikalisierungsprozessen überschätzt, indem auf eine differenzierte Darstellung wissenschaftlicher Befunde verzichtet wird. Diese sind nämlich bei eingehender Betrachtung selten so eindeutig, wie es die öffentliche Debatte manchmal suggeriert. Viel wichtiger scheinen im Rahmen von Radikalisierungsprozessen persönliche Beziehungen zu sein.“

Was sich bei Youtube und anderen Plattformen ändern sollte

„Insgesamt braucht es Transparenz über die Funktionsweise von Algorithmen, um deren Bedeutung in der Vermittlung problematischer Inhalte noch genauer bestimmen und entsprechende Präventionsmaßnahmen ableiten zu können. Diese Forderung gilt für Youtube, aber auch alle anderen vergleichbaren Plattformen.“

„Außerdem ist die Sensibilisierung für die Funktionsweise von Algorithmen von entscheidender Bedeutung. Zudem sollten Mediennutzende dazu befähigt werden, Narrative und Mechanismen extremistischer Botschaften zu erkennen – insbesondere solcher Botschaften, die extremistische Weltbilder subtil vermitteln, also unterhalb der Schwelle einer strafrechtlichen Relevanz. Diese werden von den Filteralgorithmen der Plattformen oft nicht erkannt. Daher braucht es die Unterstützung der Nutzenden, um diese zu melden und schließlich von den Plattformen zu entfernen.“

„Letztlich sollten jedoch vor allem die zugrundeliegenden gesellschaftlichen Problemlagen von politischer und gesellschaftlicher Seite adressiert werden. Problematische Online-Inhalte sind ein Symptom für ebendiese Problemlagen. Und selbst wenn nur ein kleiner, aber überzeugter Kreis an Personen durch die Algorithmen an noch mehr problematische Inhalte herangeführt wird, ist auch das eine große Herausforderung für die Demokratie. Insbesondere, wenn man in Betracht zieht, dass vor allem persönliche Empfehlungen von großer Bedeutung für die Bewerbung extremistischer Weltbilder sind.“

Prof. Dr. Fabian Prochazka

Juniorprofessor für Kommunikationswissenschaft, Universität Erfurt

Methodik der Studie

„Die Studie ist methodisch (nach allem, was erkennbar ist) absolut belastbar und stammt von einem renommierten Forscherteam aus den USA. Die Kombination aus Befragungs- und Verhaltensdaten gilt als Goldstandard in diesem Bereich und erlaubt die gezogenen Schlüsse. Zusätzlich haben die Autor:innen alle Maßnahmen getroffen, um eine möglichst repräsentative Stichprobe zu erhalten – Oversampling, Gewichtung und so weiter. Selbstverständlich bleibt aber auch hier die Einschränkung, dass nur Personen untersucht werden können, die im Rahmen eines Online-Panels Interesse an Befragungen gezeigt haben und bereit waren, eine Browser-Erweiterung zu installieren, die ihre Aktivitäten aufzeichnet.“

Stand der Forschung zur Wirkung von Youtube und zur „Rabbit-Hole-Hypothese

„Die Studie ist ein weiterer Sargnagel für die These, dass uns die Algorithmen der sozialen Medien immer radikaler machen. Sie bestätigt, was die Forschung seit einigen Jahren vermehrt zeigt: Nicht die Algorithmen ziehen Menschen zu extremen Inhalten im Netz, sondern extremistisch eingestellte Menschen suchen sich selbst solche Inhalte. Dafür bieten Plattformen wie YouTube allerdings das ideale Ökosystem und ermöglichen es extremistisch eingestellten Personen, sich mit passenden Inhalten zu versorgen.“

Unterschied zwischen dem Stand der Forschung und der öffentlichen Debatte

„Die öffentliche Debatte krankt meines Erachtens an zwei Dingen. Erstens betont sie zu stark die Bedeutung von Algorithmen für die Verbreitung extremer Inhalte, die nach aktuellem Stand eher gering einzuschätzen ist. Soziale Medien werden dann schnell als Auslöser diverser Probleme ausgemacht und ihre Regulierung ist eine scheinbar einfache Antwort. Zweitens vernachlässigt sie die Rolle, die auch journalistische Medien bei der Verbreitung von Fehlinformationen und der Normalisierung extremer Inhalte spielen.“

Was sich bei Youtube und anderen Plattformen ändern sollte

„Youtube und andere Plattformen werden auf absehbare Zeit weiterhin zentrale Austragungsorte öffentlicher Diskurse sein. Es braucht daher eine kontinuierliche Beobachtung und Studien wie diese, um ihren Einfluss auf die Meinungsbildung einschätzen zu können. Wir haben im Moment die Situation, dass weite Teile gesellschaftlicher Diskurse (auch) auf privatwirtschaftlichen Online-Plattformen stattfinden. An dieser Stelle braucht es also mehr Verantwortungsbewusstsein der Plattformen und vor allem auch offeneren Datenzugang. Viele der Fragen, die sich seit Jahren stellen, wären mit den Daten der Plattformen zu beantworten – Forscher:innen sind aber nach wie vor auf externe Datenerhebungen angewiesen.“

Dr. Sabrina Heike Kessler

Senior Research and Teaching Associate, Institut für Kommunikationswissenschaft und Medienforschung, Abteilung Wissenschaftskommunikation, Universität Zürich, Schweiz

Methodik der Studie

„Einige der Autor:innen der aktuellen Studie gehören zu den führenden Forscher:innen im Feld und legen eine überzeugende und aufwendige Analyse im Mehrmethodendesign vor. Einschränkungen der Studienergebnisse betreffen vor allem deren Generalisierbarkeit. Gründe dafür sind unter anderem die rein US-amerikanische, nicht ganz repräsentative und selbstselektierte Stichprobe sowie der relativ kurze Analysezeitraum. Die Studie wurde nicht prä-registriert. Positiv ist allerdings, dass Analysedaten und Code für Replikationsstudien bereitgestellt werden.“

„Die Teilnehmenden der Studie stimmten einer Browsererweiterung zur Aufzeichnung ihres Browsingverhaltens zu. Nicht alle Personen, die eingeladen werden zu solchen Studien, nehmen auch an solchen Studien teil. Es könnte sein, dass spezifische Merkmale Menschen dazu bewegen, an solchen Studien teilzunehmen und dass dies die Ergebnisse beeinflussen könnte. Häufig stimmen Menschen, die entweder politisch eher extrem verortet sind oder große Skepsis gegenüber der Politik oder Wissenschaft haben, solchen Aufzeichnungen und der Teilnahme an wissenschaftlichen Studien eher nicht zu. Gerade aber auf diese Bevölkerungsgruppen könnten die algorithmischen Empfehlungen auf Youtube oder Rabbit-Hole-Prozesse einen höheren Einfluss haben als auf andere. Zudem wussten die Teilnehmenden, dass deren Online-Verhalten aufgenommen wird. Das könnte potenziell dazu führen, dass sich diese mitunter sozial erwünscht oder absichtlich manipulierend verhalten haben; also bestimmte empfohlene Videos dann absichtlich aufriefen oder eben nicht aufriefen.“

„Die durch Youtube eingesetzten Algorithmen sind ein Betriebsgeheimnis. Wir als Forschende haben keinen Einblick und arbeiten hier in einer Black Box. Die algorithmischen Empfehlungen von Videos und/oder Kanälen dienen offenkundig unterschiedlichen Zwecken, wie der Bindung und Steigerung von Aufmerksamkeit, aber auch der Entfernung illegaler, schädlicher oder problematischer Inhalte, und sie werden laufend angepasst und weiterentwickelt. Auch dies schmälert die Generalisierbarkeit der Studienergebnisse. Es kann sein, dass der Empfehlungsalgorithmus zu anderen Zeiten, bei spezifischen Themen, in anderen Ländern und Sprachen unterschiedlich programmiert ist und auch, dass alternative und/oder extremistische Kanäle in anderen Ländern von Youtube unterschiedlich klassifiziert und behandelt werden. Entsprechend sind die Studienerkenntnisse wahrscheinlich eher eine Momentaufnahme und es ist fraglich, ob die Ergebnisse auch so für Deutschland replizierbar sind.“

„Solche Forschung auf den großen digitalen (sozialen) Plattformen macht immer auch deutlich, welche Schwierigkeiten wir als Forschende in dem Bereich haben, verlässliche Daten zu erhalten. Oftmals haben wir keine genaue Vorstellung von der tatsächlichen Ausdehnung eines Problems, wie es hier bei Rabbit Holes oder bei gesellschaftlicher Polarisierung der Fall ist. Wir können ein Problem mit unseren Mitteln meist nur ganz am Rande abschätzen. Wir sind auf freiwillige Datenspenden oder auf freiwillige Installation von Browsererweiterungen und wahrheitsgetreue Beantwortung von Fragebögen angewiesen, wie in dieser Studie. Youtube selbst oder besser noch unabhängige Forscher:innen mit Datenzugang könnten viele unserer Forschungsfragen leichter, schneller, valider und genauer beantworten. Youtube kann leicht analysieren, was deren Algorithmus-Umstellungen bringen und wie viele Menschen täglich Videos von alternativen oder extremistischen Kanälen empfohlen bekommen und ansehen. Ohne diese Datenzugänge oder Forschungseinblicke ist die aufwendige Forschung, welche in der vorliegenden Studie geleistet wird, als umso wichtiger zu bewerten. Nur so können die Gefahren für Individuen, Gesellschaft oder die Demokratie wenigstens annähernd extern eingeschätzt werden. Es wird Zeit für eine Öffnung von Plattformen für kritische und unabhängige Forschung im öffentlichen Interesse, wie sie der Digital Services Act der EU nun auch verstärkt einfordert.“

Stand der Forschung zur Wirkung von Youtube und zur „Rabbit-Hole-Hypothese

„Auch für Deutschland zeigte sich – beispielsweise mit Bezug auf fehlinformierende Inhalte zu COVID-19 – dass diese Inhalte und Videos von alternativen oder extremistischen Youtube-Kanälen Menschen oft über externe Links erreichen. Die Links werden dann vor allem über andere Mainstream Social-Media- und Messenger-Plattformen wie Whatsapp versendet [1].“

„Die aktuelle Studie kommt zum Ergebnis, dass vor allem eine kleine Gruppe von Menschen mit einer höheren Tendenz zu Sexismus und Rassismus alternative und extremistische Videos auf Youtube konsumieren. Auch dabei muss man bedenken, dass die Ergebnisse nur für die US-Bevölkerung generalisierbar sind. In Deutschland könnten kulturell bedingt andere Personenmerkmale diese kleine Gruppe charakterisieren. Ganz grundsätzlich gibt es kulturelle und strukturelle Variation in der Nutzung von Youtube zwischen Ländern und Mediensystemen.“

„Die Studie testete, wie oft Youtube-Videoempfehlungen sogenannte Rabbit Holes schaffen, also wie oft die Nutzer:innen extremere Inhalte empfohlen bekamen und danach ansahen, als diese sonst angesehen würden. In der Studie konnte diese Rabbit-Hole-Hypothese nur in seltenen Fällen nachgewiesen werden.“

„Es wurde vielmehr deutlich, dass es für Nutzer:innen, die sich einmal in alternativen oder extremen Umgebungen – gewissermaßen im ‚Kaninchenbau‘ – befinden, aufgrund der kontinuierlichen Empfehlungen von Youtube möglicherweise schwierig sein kann, wieder herauszufinden. Personen, die bereits einen alternativen oder extremistischen Kanal abonniert haben, erhalten auch eher Vorschläge für ähnliche Videos.“

„Die Studie selbst sagt nichts über die genauen Gründe der Nutzung der Videos oder über die Inhalte der Videos, welche genutzt wurden, oder über deren Wirkung aus. An diesem Punkt bedarf es weiterer Forschung, um problematische Prozesse und Entwicklungen rund um die Nutzung von alternativen oder extremistischen Youtube-Videos identifizieren zu können.“

Was sich bei Youtube und anderen Plattformen ändern sollte

„Man kann auf Youtube leicht nach alternativen oder extremistischen Inhalten suchen, indem man einschlägige Suchbegriffe verwendet. Die Kommentare unter solchen Videos enthalten dann oft Links zu weiteren ähnlichen Videos und die Kanäle verlinken sich gegenseitig. Wenn man ein solches Video findet, findet man schnell auch andere ähnliche Videos. Diese Videos auf Youtube könnten potenziell – unabhängig von den Video-Empfehlungen von Youtube – der Eingang zum Kaninchenbau außerhalb der Mainstream-Plattformen sein. Extremistische Medien nutzen Youtube mitunter nur als Werbeplattform für noch radikalere Inhalte auf anderen Plattformen außerhalb von Youtube. Dies wurde jedoch in der Studie nicht untersucht.“

„Indem die extremistischen Kanäle auf Youtube bleiben, verdienen sie Geld durch geteilte Werbeeinnahmen oder indirekt durch verlinkte Shops und Spendenaufrufe. So begünstigt Youtube auch das Wachstum solcher problematischen Gemeinschaften, was auch in Deutschland der Fall ist. Youtube könnte Maßnahmen ergreifen und das Hosting solcher Kanäle einschränken.“

Prof. Dr. Curd Knüpfer

Juniorprofessor für Politikwissenschaft, Freie Universität Berlin

Methodik der Studie

„Die aktuelle Studie bietet interessante Einblicke, doch sollte man niedrige Prozentzahlen nicht mit einer insignifikanten Masse gleichsetzen. Eine sechsprozentige Beteiligung (sechs Prozent der Befragten haben im Untersuchungszeitraum mindestens ein Video von einem als extremistisch eingestuften Kanal gesehen; Anm. d. Red.) kann, hochgerechnet auf die Gesamtmenge der Nutzer:innen, eine erhebliche Anzahl darstellen. Oft sind solche ‚Minderheiten‘ politisch aktiver und engagierter als der Durchschnitt. Der Vorwurf, Youtube sei eine ‚Radikalisierungsmaschine‘, die quasi eine passive Masse ohne Voreinstellungen zum Extremismus bringt, kam hauptsächlich aus journalistischen Kreisen und war stets überzogen. Solche Macht und Effekte haben Medien grundsätzlich nicht.“

Stand der Forschung zur Wirkung von Youtube und zur „Rabbit-Hole-Hypothese

„Die Dynamiken von Angebot und Nachfrage auf Youtube sind nicht statisch. Selbst wenn der Großteil der Nutzer:innen kein großes Interesse an bestimmten Inhalten zeigt, können sich über die Zeit Diskurse und Themenfelder entwickeln. Diese Inhalte könnten zwar nur punktuell Beachtung finden, aber langfristig ein stetig wachsendes Publikum erreichen. Es ist durchaus möglich, dass es weiterhin ‚Rabbit Holes‘ gibt, auch wenn nur wenige Nutzer:innen diese gelegentlich erkunden. Finden wir es problematisch, dass dann Einzelne mit wilden Verschwörungstheorien oder menschenfeindlichen Inhalten konfrontiert werden? Ich denke, so etwas muss man als Gesellschaft erörtern und sich fragen, was genau eigentlich alles öffentlich zugänglich sein sollte – auch wenn nur wenige tatsächlich Gebrauch machen.“

Unterschied zwischen dem Stand der Forschung und der öffentlichen Debatte

„Die wissenschaftliche Debatte zeichnet sich durch eine differenzierte Herangehensweise aus, die auf umfangreichen Datenanalysen beruht. Im Gegensatz dazu neigt die öffentliche Debatte dazu, von Schlagzeilen und vereinfachten Darstellungen dominiert zu werden. Ein markanter Unterschied liegt in der Betrachtung von Medieneffekten. Während die Wissenschaft Schwierigkeiten hat, diese Effekte konkret nachzuweisen, werden sie in der öffentlichen Diskussion oft als selbstverständlich angenommen. Dies führt dazu, dass Medienformaten häufig eine Beeinflussungsmacht zugeschrieben wird, die tatsächlich stärker in der Nachfrage der Konsumenten als im medialen Angebot selbst verankert ist.“

Was sich bei Youtube und anderen Plattformen ändern sollte

„Ein zentrales Problem ist die Tendenz von Youtube, die Content-Moderationsteams zu reduzieren. Gleichzeitig haben Forschende immer weniger Zugang zu Plattformdaten. Die in der Studie präsentierten Zahlen bieten nur einen kurzen Einblick in eine bestimmte Phase. Die Plattformdynamiken und somit auch die Browsing-Gewohnheiten können sich schnell ändern. Wenn weniger extremistische Inhalte identifiziert und moderiert werden, könnte die Exposition gegenüber solchen Inhalten mit der Zeit zunehmen. Die allgemeine Nachfrage nach solchen Inhalten mag dann weiterhin gering bleiben, aber die Intensität des Konsums könnte bei einer kleinen Gruppe von Nutzern steigen. Und wie eingangs gesagt: Sechs Prozent können eine ganz schön unangenehm große Masse sein, je nach Kontextbedingungen.“

Prof. Dr. Joachim Allgaier

Professor für Kommunikation und Digitalisierung, Hochschule Fulda – University of Applied Sciences

„Es handelt sich bei dieser Studie um einen sehr interessanten Beitrag zum Thema Video-Empfehlungen auf Youtube.“

Methodik der Studie

„Die Studie wurde methodisch auf einem hohen Niveau erarbeitet. Es wurde innovativ vorgegangen, mehrere Datenerhebungsansätze wurden gut begründet und auf produktive Art verknüpft, mögliche Limitationen wurden umfänglich ausgeführt. Ich halte die Schlussfolgerungen der Autorinnen und Autoren deswegen für gerechtfertigt.“

Stand der Forschung zur Wirkung von Youtube und zur „Rabbit-Hole-Hypothese

„Der Beitrag ergänzt die derzeitige Forschung zu ‚Rabbit-Hole-Hypothese‘ auf sinnvolle Art. Die Hinweise verdichten sich, dass Durchschnitts-UserInnen auf Youtube in der Regel nicht (mehr) durch die algorithmisierte Kuratierung zu immer extremeren Inhalten hingeleitet werden. Nichtsdestotrotz weisen auch die Autorinnen und Autoren dieser Studie zu Recht darauf hin, dass auf Youtube nach wie vor etliche zum Teil sehr extreme Inhalte zu finden sind, die von einer engagierten Gruppe von NutzerInnen auch stark nachgefragt werden. Es ist keine Frage, dass es hier bei den betreffenden NutzerInnen zu immer extremerer Radikalisierung und auch Vernetzung kommen kann.“

„Es ist nicht auszuschließen, dass vor dem Erhebungszeitraum der Studie die Empfehlungsalgorithmen von Youtube auch radikale, antidemokratische, desinformierende und wissenschaftsfeindliche Videos empfohlen haben und NutzerInnen diesen in der Vergangenheit begegnet sind und sich derartige Erfahrungen in der Nutzung der Plattform eingebrannt haben. Während der Hochphase der Corona-Pandemie war Youtube zudem ein beliebter Kanal, um die Regierung, Wissenschaft und journalistische Medien anzugreifen. Und auch heute noch werden Youtube-Videos oft dazu benutzt, Stimmung gegen die Regierung und journalistische Medien zu machen, Menschen zu diffamieren und desinformierende und wissenschaftsfeindliche Inhalte zu verbreiten, beispielsweise zum Thema Impfungen oder Klimawandel. Diese werden aber weniger von Youtube selbst, sondern eher von den BetreiberInnen und NutzerInnen der jeweiligen Kanäle zum Beispiel über ‚alternative‘ Medien oder Social-Media-Profile auf anderen Plattformen verbreitet. Ergänzend zur vorliegenden Studie wäre es interessant, die Forschung zu ‚Rabbit Holes‘ zu bestimmten Themen abzugleichen, wie etwa Krieg in der Ukraine, Klimawandel und Klima-Aktivismus, Flucht und Migration, Krebs oder Essstörungen – hier gibt es noch Forschungsbedarf.“

Was sich bei Youtube und anderen Plattformen ändern sollte

„Youtube ist nach wie vor global eine der reichweitenstärksten Plattformen mit einer extremen Medienmacht. Die Tatsache, dass dort menschenverachtende, antiwissenschaftliche und antidemokratische Inhalte weltweit verbreitet werden können, steht außer Frage – auch wenn die Empfehlungsalgorithmen von Youtube diese nicht generell vorschlagen. Die Autorinnen und Autoren der aktuellen Studie kritisieren zudem zu Recht, dass Youtube gelegentlich auch Anreize für die Verbreitung derartiger Inhalte schafft, indem Youtube es erlaubt, dass Werbung geschaltet wird und Geld damit verdient werden kann (Monetarisierung). Es wäre vor allem wünschenswert, die Richtlinien zur Monetarisierung von Inhalten zu verschärfen, sodass derartige Inhalte keine Einnahmen über die Plattform erzeugen können, und diese strikt umzusetzen. Darüber hinaus sollten bei Youtube die Qualitätssicherungsmaßnahmen und die möglichen Sanktionsmaßnahmen von Verstößen verbessert und verschärft werden. Oftmals ist es intransparent, welche Inhalte auf Youtube sanktioniert werden und welche nicht. Es würde Sinn machen, wenn Youtube dafür mit externen zivilgesellschaftlichen Organisationen zusammenarbeiten würde – so haben beispielsweise diverse Fact-Checking-Organisationen Youtube ihre Kooperation angeboten [2].“

Angaben zu möglichen Interessenkonflikten

Dr. Josephine Schmitt: „Es bestehen keinerlei Interessenkonflikte.“

Prof. Dr. Fabian Prochazka: „Ich habe keine Interessenkonflikte.“

Dr. Sabrina Heike Kessler: „Ich habe keine Interessenkonflikte zu deklarieren.“

Prof. Dr. Curd Knüpfer: „Ich habe keine Interessenkonflikte zu melden.“

Prof. Dr. Joachim Allgaier: „Es gibt keine Interessenkonflikte.“

Primärquelle

Chen AY et al. (2023): Subscriptions and external links help drive resentful users to alternative and extremist YouTube channels. Science Advances. DOI: 10.1126/sciadv.add8080.

Weiterführende Recherchequellen

Science Media Center (2023): Soziale Medien: Wie wirken Newsfeed-Algorithmen auf User? Research in Context. Stand: 27.07.2023.

Science Media Center (2022): Die Verbreitung von Desinformation. Science Response. Stand: 05.11.2022.

Literaturstellen, die von den Expertinnen und Experten zitiert wurden

[1] Echtermann A (12.05.2020): Datenanalyse: Nutzer finden fragwürdige Corona-Informationen vor allem auf Youtube und verbreiten sie über Whatsapp. Correctiv.

[2] The International Fact-Checking Network (12.01.2022): An open letter to YouTube’s CEO from the world’s fact-checkers. Poynter.