Empfehlungsalgorithmus auf Youtube wirkt wenig polarisierend
Studie untersucht Polarisierung durch Youtube-Empfehlungsalgorithmus
Algorithmen wird oft hohes Polarisierungspotenzial zugeschrieben, aktueller Youtube-Algorithmus hat laut Studie jedoch höchstens geringen Einfluss auf Polarisierung
unabhängige Forscherinnen: Ergebnisse bestätigen Stand der Forschung, Studiendesign lässt aber keine Aussagen über Langzeiteffekte zu
Themen wie Migration, erneuerbare Energien oder Schuldenpolitik scheinen die Gesellschaft in verschiedene Lager zu spalten. Die Diskussionen polarisieren. Sozialen Medien und ihren Empfehlungsalgorithmen wird immer wieder vorgeworfen, dafür mitverantwortlich zu sein. In einer aktuellen Studie haben amerikanische Forschende nun Polarisierung durch den Youtube-Empfehlungsalgorithmus in vier einzelnen Experimenten zwischen 2021 und 2024 untersucht. Sie kommen zu dem Ergebnis, dass der Algorithmus nur wenig bis gar nicht polarisierend auf die politische Einstellung der Teilnehmenden gewirkt hat. Die Studie ist im Fachjournal „PNAS“ erschienen (siehe Primärquelle).
Wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum
Ergebnisse und Methodik der Studie
„Das Paper überzeugt methodisch durch ein innovatives und komplexes Design, das eine realitätsnahe Youtube-ähnliche Plattform einsetzt, auf der Teilnehmende Inhalte zu einem bestimmten vorgegebenen Thema frei auswählen können. Gleichzeitig basieren die durchgeführten Experimente auf realen Youtube-Inhalten und -Empfehlungen, um möglichst große externe Validität zu gewährleisten. Mit fast 9000 Teilnehmenden, die an vier unterschiedlichen Experimenten zwischen Juni 2021 und May 2024 teilnahmen, bietet die Arbeit eine solide empirische Basis, auch wenn die Rekrutierung über Plattformen wie Mturk und Yougov gewisse Einschränkungen hinsichtlich der Repräsentativität mit sich bringt. Die Präregistrierung der Studie verweist auf einen hohen Anspruch an die Transparenz der Forschungsarbeit.“
„Die Ergebnisse legen nahe, dass kurzfristige algorithmische Empfehlungen keine signifikanten Polarisierungseffekte in der Gesamtstichprobe erzeugen. Es gibt vereinzelte Effekte in Subgruppen. Konsistent über alle Experimente hinweg zeigt sich, dass Personen tendenziell Inhalte wählen, die ihre eigenen Haltungen unterstützen. Offen bleibt, welche Rolle wiederholter und langfristiger Kontakt mit bestimmten Empfehlungen auf die Polarisierung haben kann.“
„Der Nachbau der Youtube-Plattform mit realen Videos und algorithmischen Empfehlungen in Anlehnung an den tatsächlichen Youtube-Algorithmus stellt einen großen methodischen Vorteil dar und bringt die durchgeführten Experimente näher an die Realität als viele vergleichbare Experimente. Die Tatsache, dass die Nutzenden Videos selbst auswählen können, verstärkt diesen Eindruck. Dennoch handelt es sich um ein künstliches Setting, das wesentliche Aspekte der realen Youtube-Nutzung – wie die personalisierte Natur der Empfehlungen basierend auf individuellen Nutzer:innendaten – nicht vollständig abbildet. Ebenso bleibt offen, ob frühere Versionen des Youtube-Algorithmus, der kontinuierlich verändert wird, zu anderen Zeitpunkten problematischer und stärker polarisierend gewirkt haben könnten.“
Gründe für Polarisierung
„Die limitierten Ergebnisse zur kurzfristigen Meinungsänderung sind erwartbar, da Einstellungen in der Regel über längere Zeiträume hinweg geformt werden. Polarisierung durch Youtube-Inhalte erfordert zudem nicht nur wiederholte oder langfristige Exposition, sondern hängt einerseits auch von individuellen Faktoren der Nutzenden ab – wie zum Beispiel deren politischer Voreinstellung und Medienkompetenz oder der Nutzungssituation – und andererseits von der Art und Gestaltung der konsumierten Inhalte.“
„Besonders anfällige Gruppen, wie ideologisch stark geprägte oder weniger kritische Nutzende, könnten daher stärker betroffen sein. Das kann jedoch basierend auf den Ergebnissen der aktuellen Studie weder eindeutig belegt noch ausgeschlossen werden. Zwar finden die Autor:innen keine dezidierten Effekte der Inhalte auf die Meinung der Proband:innen, jedoch gibt Experiment vier Anlass zur Sorge, da die Teilnehmenden angaben, durch zunehmend extremere Inhalte ‚etwas Neues‘ zu lernen. Dies könnte bedeuten, dass solche Inhalte, auch wenn sie nicht sofort die Meinung ändern, langfristig die Wahrnehmung oder das Verständnis bestimmter Themen beeinflussen könnten.“
„Die Beschränkung der vier Experimente auf jeweils eines von zwei Themen – Waffenkontrolle und Mindestlohn – limitiert die Übertragbarkeit der Ergebnisse auf andere, potenziell polarisierende Themen wie etwa Migration und auf andere gesellschaftliche Kontexte. Dennoch bietet die Studie wertvolle Einblicke in die Komplexität von Polarisierungsprozessen durch algorithmische Empfehlungen in sozialen Medien. So verdeutlicht sie, dass Polarisierungsprozesse nicht durch Kurzzeitexperimente umfassend erfasst und erklärt werden können.“
Übertragbarkeit auf Deutschland
„Auf Deutschland sind die Ergebnisse nur eingeschränkt übertragbar. Es ist wahrscheinlich, dass Unterschiede in der Medienlandschaft, der politischen Kultur und den gesellschaftlichen Dynamiken anders auf algorithmische Polarisierung wirken. Langfristig angelegte und thematisch diversere Untersuchungen, die auch den deutschen Kontext einbeziehen, sind notwendig, um ein besseres Verständnis der möglichen Effekte polarisierender Youtube-Videos zu erhalten.“
„Die Ergebnisse der Studie legen nahe, dass kurzfristige algorithmische Empfehlungen, wie sie hier für Youtube untersucht wurden, keine unmittelbaren Polarisierungseffekte auf die politische Einstellung haben. Die Befunde verdeutlichen aber, dass Voreinstellungen bei der Wahl von Inhalten eine wichtige Rolle spielen.“
Bedeutung mit Blick auf die deutsche Bundestagswahl
„Vor diesem Hintergrund ist anzunehmen, dass die Gefahr einer radikalen Meinungsänderung durch kurzfristige Youtube-Nutzung im Vorlauf zur Bundestagswahl in der Gesamtschau eher gering ist. Allerdings bleiben die langfristigen Effekte algorithmischer Empfehlungen und die Rolle dieser für unterschiedliche – auch vulnerable – Zielgruppen unklar.“
„Die Nutzung von Plattformen mit algorithmischen Empfehlungssystemen allein ist höchstwahrscheinlich nicht der Haupttreiber gesellschaftlicher Spaltung. Polarisierung ist das Resultat einer Kombination unterschiedlicher Aspekte. Neben individuellen Faktoren wie Persönlichkeitseigenschaften, politischen Einstellungen, Vorerfahrungen und Mediennutzung spielt die konkrete Aufbereitung der Inhalte – handelt es sich zum Beispiel um besonders emotionalisierende Themen, gezielten Kampagnen oder Desinformationen – eine wichtige Rolle.“
„Darüber hinaus müssen im Kontext von Polarisierung auch gesellschaftliche Dynamiken abseits des digitalen Raums berücksichtigt werden – etwa soziale Ungleichheit, Vertrauen oder Misstrauen gegenüber staatlichen Institutionen, Medienlandschaften, Bildung und öffentlicher Diskurs. Soziale Spannungen, ideologische Fragmentierung und das Gefühl politischer oder sozialer Marginalisierung schaffen den Nährboden für extreme Meinungen und Gruppenbildung. Diese können durch soziale Medien verstärkt werden. Diese gesellschaftlichen Faktoren beeinflussen, wie Menschen digitale Inhalte aufnehmen und bewerten.“
Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen, und Mitglied des Research Center Trustworthy Data Science and Security, Dortmund
Ergebnisse und Methodik der Studie
„Das Experimentaldesign ist im Prinzip clever aufgebaut und ermöglicht es, die Auswirkungen unterschiedlich funktionierender Empfehlungsalgorithmen zu testen. Ein großer Nachteil ist jedoch die Tatsache, dass die Interaktion mit der Plattform im Durchschnitt nur 23 Minuten gedauert hat. Eine Anpassung der Meinung ist auf dieser Basis selbst mit dem am stärksten polarisierenden Algorithmus nicht erwartbar.“
„Es ist nicht besonders überraschend, dass durch einen Vorschlags-Algorithmus, der stärker Videos vorschlägt, die der Meinung des vorher ausgewählten Videos entsprechen, keine stärkere Meinungspolarisierung erfolgt. Zum einen wird bereits seit einigen Jahren durch verschieden aufgebaute Studien gezeigt, dass ‚Filter Bubbles‘ (‚Informationsblasen‘, in die Menschen durch Empfehlungen und Zuteilungen der Plattformalgorithmen gelangen und in denen sie nur größtenteils einseitige Informationen gezeigt bekommen, die ihren Einstellungen bereits entsprechen; Anm. d. Red.) nicht so stark entstehen und wirken, wie zunächst angenommen. Zum zweiten sind politische Überzeugungen beziehungsweise Meinungen zu politischen Themen oft ohnehin stark ausgeprägt, sodass eine Änderung im Sinne einer Verstärkung der Meinung durch (kurzfristige) Stimuli eigentlich nicht erwartet werden kann. Drittens ist die Interaktionszeit von durchschnittlich 23 Minuten sicherlich zu kurz, um Meinungsänderungen zu bedingen – auch wenn die Autor*innen die im Vergleich zu anderen Studien längere Dauer der Interaktion mit der Plattform betonen.“
Übertragbarkeit auf Deutschland und Bedeutung mit Blick auf die Bundestagswahl
„Im Einklang mit anderen Studien lässt sich aus der Studie ableiten, dass nicht befürchtet werden muss, dass allein ein Empfehlungsalgorithmus durch Verursachung einer Filter Bubble zu einer starken Meinungsbeeinflussung führt. Die Übertragbarkeit von amerikanischen Studien auf Deutschland ist natürlich im politischen Kontext immer eingeschränkt, da durch das deutsche Parteiensystem eine weniger starke Polarisierung in zwei Lager erwartet werden kann. Da es sich hier aber um zwei konkrete politische Themen handelt (Waffengesetze und Mindestlohn), sind Effekte von den USA auf Deutschland doch übertragbar – abgesehen davon, dass man hierzulande natürlich nicht das Thema Waffengesetze als kontroverses Thema wählen würde.“
„Ich habe keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.“
Primärquelle
Liu N et al. (2025): Short-term exposure to filter-bubble recommendation systems has limited polarization effects: Naturalistic experiments on YouTube. PNAS. DOI: 10.1073/pnas.2318127122.
Weiterführende Recherchequellen
Science Media Center (2023): Extremistische und alternative Youtube-Videos wenig gesehen. Statements. Stand: 30.08.2023.
Dr. Josephine Schmitt
Wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Nicole Krämer
Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen, und Mitglied des Research Center Trustworthy Data Science and Security, Dortmund
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“