Soziale Medien: Wie wirken Newsfeed-Algorithmen auf User?
Wirkung von chronologisch gegenüber algorithmisch sortierten Newsfeeds in Facebook und Instagram untersucht
Auswirkungen auf online-Verhalten, aber kaum Auswirkungen auf offline-Verhalten oder Polarisierung beobachtet
unabhängige Forschende: Interessant, aber Ergebnisse gelten nur für US-Präsidentschaftswahl 2020, Studie kann nicht zeigen, dass Facebook und Instagram unbedenklich sind
Über die Wirkung von Algorithmen, die bestimmen, welche Beiträge Menschen auf Sozialen Medien angezeigt bekommen, wurde und wird in der Öffentlichkeit viel spekuliert. So sollen sie Filterblasen erzeugen, bevorzugt Desinformation verteilen und die Gesellschaft dadurch polarisieren. Auch wenn das Thema in der Forschung differenzierter betrachtet wird und gerade die Filterblasen-Hypothese in ihrer ursprünglichen Form als nicht mehr haltbar gilt, ist auch dort die Wirkung der Empfehlungs- und Sortieralgorithmen noch immer nicht komplett klar. Ein großes Problem ist dabei, dass diese Programme meist eine Black Box sind: Die großen Social-Media-Unternehmen geben oft weder deren Funktionsweise noch mögliche Daten zur Analyse preis. Eine Gruppe von Studien, die in Kooperation von Meta mit externen Forscherinnen und Forschern entstanden ist, soll das jetzt ändern und einen genaueren Einblick ermöglichen.
Inhaber des Lehrstuhls für Politikwissenschaft, insbesondere Steuerung innovativer und komplexer technischer Systeme, Otto-Friedrich-Universität Bamberg
Methodik und Ergebnisse der Studie
„Die vorliegenden Studien zeigen ausgewählte Effekte von zwei spezifischen Charakteristiken von Facebook und Instagram, dem algorithmisch selektierten Newsfeed und von anderen Nutzern geteilten Inhalten, und beschreiben Muster in der Nachrichtennutzung von politisch aktiven Nutzerinnen und Nutzern im US-Präsidentschaftswahlkampf 2020.“
„Die vorgestellten Befunde sind interessant, nicht zuletzt, da es für die Wissenschaft sehr schwierig ist, die Effekte der Nutzung digitaler Plattformen zu identifizieren. Dennoch bleibt festzustellen, dass die hier vorgestellten Ergebnisse sehr begrenzt sind und relativ wenig zu den eigentlichen Fragen zur Rolle digitaler Plattformen in der politischen Kommunikation beitragen.“
„Ein Beispiel: In der ersten Studie testen die Autorinnen und Autoren unterschiedliche Wirkungen des algorithmisch sortierten Newsfeeds und eines chronologisch sortierten Newsfeeds experimentell. Zu ihrer eigenen Überraschung stellen sie keine oder nur begrenzte Effekte auf politische Einstellungen fest. Dies ist erst einmal interessant, hilft uns aber wenig bei der Einschätzung der Rolle von Facebook oder Instagram in Wahlkämpfen.“
Einschränkungen durch das Studiendesign
„Zwei entscheidende Einschränkungen der Studie gilt es bei der Einordnung der Befunde zu bedenken. Erstens: Die Wissenschaftlerinnen und Wissenschaftler behandeln den Facebook- und Instagram-Algorithmus als Black Box, in dessen Funktionsweise sie keinen Einblick haben. Sie testen nur, ob die 2020 implementierte Version des Algorithmus andere Effekte hatte als ein chronologisch sortierter Feed. Das ist sicherlich interessant, führt aber dazu, dass diese Ergebnisse nur für diese spezifische Implementation des Algorithmus gelten. Der Newsfeed-Algorithmus unterliegt stetigen Änderungen, die von außen nicht beobachtbar sind. Wir wissen also nicht, nach welchen Regeln Meta Inhalte zur Anzeige auswählt, welchen Effekt einzelne dieser Regeln haben und ob es zwischen Wahlen wichtige Änderungen gab. Viele der Vorbehalte gegenüber der politischen Rolle von Facebook und Instagram stammen aus dem US-Präsidentschaftswahlkampf 2016 und anderen internationalen Wahlen (wie zum Beispiel Brasilien). Die vorliegenden Studien können uns hierzu nichts sagen. Auf der Basis dieser Befunde sollte man also nicht generell über die Rolle von Facebook oder Instagram in Wahlkämpfen schließen.“
„Zweitens: Die Autorinnen und Autoren untersuchen die Effekte auf Einstellungen über alle Nutzerinnen und Nutzer in ihrem Sample. Hier stellen sie überwiegend keine Effekte auf politische Einstellungen fest. Das ist interessant. Aber die aktuelle Forschung zur Rolle von Facebook oder Instagram im Kontext politischer Radikalisierung oder Falschinformationen geht ohnehin nicht von gesamtgesellschaftlichen Effekten aus, sondern von Effekten auf Kleingruppen, die entweder psychologisch, ideologisch oder strukturell besonders anfällig für Botschaften oder Inhalte sind, die ihnen auf digitalen Plattformen eventuell algorithmisch verstärkt angezeigt werden. Hierzu können die vorliegenden Studien nicht sprechen und unternehmen sogar überraschenderweise gar keinen Versuch an dieser Diskussion anzuknüpfen. Vor diesem Hintergrund wäre die Lesart der Studie als ‚Facebook verursacht keine politische Polarisierung‘ zumindest verkürzt, wenn nicht sogar irreführend.“
„Die Ergebnisse dieser Studie sind interessant. Allerdings führt das gewählte Untersuchungsdesign dazu, dass wir diese Befunde nicht über diesen einen spezifischen Fall hinaus generalisieren können. Über die Rolle von Facebook oder Instagram in Wahlkämpfen in anderen Ländern oder auch anderen Wahlkämpfen in den USA, können wir auf Basis dieser Befunde nichts sagen.“
„Dies ist wichtig zu beachten, da die vorliegenden Studien allein durch die Größe der verwendeten Datensätze, dem Einfluss des Teams der beteiligten Wissenschaftlerinnen und Wissenschaftlern, als auch dem Einfluss der Marketing-Abteilung von Meta viel Aufmerksamkeit auf sich ziehen werden. Vielleicht mehr Aufmerksamkeit, als allein durch die Kraft der Befunde erklärbar wäre.“
Zur Hypothese, dass Facebooks algorithmisch kuratierter Feed zu mehr Polarisierung führt
„Wie bereits diskutiert, sind die Befunde der Studie nicht über den spezifischen Fall hinaus generalisierbar. Wir können sicherlich wie die Autorinnen und Autoren sagen, dass auf Basis dieser Befunde keine Polarisierung in der Breite der Teilnehmerinnen und Teilnehmer der Studie feststellbar war. Darüber hinaus wird es dünn.“
„Da die Teilnahme an dem Experiment eine aktive Einverständniserklärung von Teilnehmerinnen und Teilnehmern voraussetzt, können wir die Befunde nicht einfach auf alle Nutzerinnen und Nutzer generalisieren. Häufig steigen bei solchen Erklärungen Menschen aus, die entweder politisch eher extrem verortet sind oder große Skepsis gegenüber der Politik oder Wissenschaft haben. Gerade aber auf diese Bevölkerungsgruppen könnten algorithmisch sortierte Feeds einen höheren Einfluss haben als auf andere.“
„Wie bereits oben skizziert, geht die aktuelle Forschung von heterogenen Effekten auf unterschiedliche Gruppen aus. Hier wird vermutet, dass algorithmisch kuratierte Informationsumgebungen auf spezifische, besonders anfällige Gruppen Effekte entwickeln. Da die Studien nur durchschnittliche Effekte über alle Teilnehmerinnen und Teilnehmer ausweisen, können die Befunde zu diesen Diskussionen nicht sprechen.“
„Darüber hinaus können die Studien auch nicht über die Wirkung von Facebook oder Instagram in anderen Wahlkämpfen sprechen. Die Autorinnen und Autoren behandeln den Newsfeed Algorithmus als Black Box. Entsprechend bleibt dessen Mechanik im Dunkeln. Zur Einschätzung der Generalisierbarkeit der Ergebnisse über den Fall US-Präsidentschaftswahl 2020 hinaus, müssten wir jedoch wissen, ob und wie die Funktion des Algorithmus sich 2020 von der 2016 oder der in 2024 oder der Funktion in anderen Ländern unterscheidet. Ohne diese Informationen bleiben die Befunde interessant, sind aber über den untersuchten Fall hinaus nicht generalisierbar.“
„Zusätzlich gibt es kulturelle und strukturelle Variation in der Nutzung von Facebook und Instagram zwischen Ländern und Mediensystemen. Es kann also durchaus sein, dass Facebook und Instagram in den USA andere Effekte mit sich bringen als zum Beispiel in Deutschland oder Brasilien. Dies schränkt die Generalisierbarkeit der Befunde weiter ein.“
„Insgesamt machen mich diese Einschränkungen der Studien gegenüber generellen Interpretationen der Art ‚Facebook führt nicht zu Polarisierung‘ sehr skeptisch.“
Ansatz der Kooperation zwischen Meta und den Forschungsteams
„Die Forschung zu den Mustern und Effekten digitaler Kommunikationsumgebungen ist sehr schwierig. Häufig bleibt Forscherinnen und Forschern der Zugang zu den am stärksten genutzten Plattformen wie Facebook, Instagram, TikTok oder YouTube verwehrt. Vor diesem Hintergrund ist die hier vorliegende Kooperation zwischen dem Forschungsteam und Meta interessant und verspricht anders nicht gewinnbarer Einsichten. Gleichzeitig zeigt der begleitende Artikel von Michael W. Wagner klar die Grenzen und Risiken solcher Industrie-Wissenschaftskooperationen.“
„In diesem Fall scheint Meta Einfluss auf die Zusammensetzung des Forschungsteams und der zu untersuchenden Fragen gehabt zu haben. Dies schränkt natürlich die Unabhängigkeit der so entstandenen Forschungsergebnisse ein. Eine entsprechend strukturierte Kooperation zwischen Wissenschaft und Industrie in einem anderen Bereich, zum Beispiel Pharma oder Tabak, würde man wohl aus gutem Grund für eher problematisch halten.“
„Dies ist besonders bedenklich, da die vorliegenden Studien durch ihren Publikationsort, die verwendeten Datenmengen, den Einfluss der beteiligten Wissenschaftlerinnen und Wissenschaftler und Metas Marketingabteilung große rhetorische Kraft haben und mit hoher Wahrscheinlichkeit zukünftig als Schlüsselwerke in Öffentlichkeit, Forschung und gegenüber Politik und Regulatoren behandelt werden. Es steht zu erwarten, dass die Grenzen der Generalisierbarkeit der Arbeiten dabei keine allzu große Beachtung finden. Stattdessen kann man erwarten, dass die hier präsentierten klar kontextabhängigen Befunde als Beleg für die allgemeine Unbedenklichkeit von Facebooks und Instagrams Rolle in Wahlkämpfen genutzt werden.“
„Die hier vorliegende Kooperation macht also sowohl die Potenziale als auch die Risiken von Industrie-Wissenschaftskooperationen deutlich. Hier gilt es für die Wissenschaft, zeitnah Regeln für die Zusammenarbeit mit der Tech-Industrie zu entwickeln. Potenziale der Zusammenarbeit sollten genutzt werden. Gleichzeitig gilt es aber zu verhindern, dass Firmen Forschungsagenden prägen und kooperierende Wissenschaftlerinnen und Wissenschaftler als ausgelagerten Arm ihrer PR-Abteilung nutzen können.“
Professor für Kommunikationsmanagement, Institut für Medien- und Kommunikationswissenschaft, Universität Leipzig
Methodik und Ergebnisse der Studie
„Die Studie weist Stärken auf, die sich aus der Kooperation mit Meta ergeben. So war es möglich, unterschiedliche Ansätze der Selektion von Inhalten in einer realistischen Nutzungsumgebung zu untersuchen. Frühere Studien konnten solche Experimente bestenfalls in Simulationen von Social-Media-Plattformen durchführen.“
„Die Anzahl der Studienteilnehmer ist hoch und auch der Zeitraum der Untersuchung ist relativ lang. Dennoch ist die Wahrscheinlichkeit, dass eine etwas andere Selektion von Facebook- oder Instagram-Inhalten innerhalb von nur drei Monaten politische Einstellungen oder das Verhalten verändern würde, nicht sehr hoch. Es ist daher nicht überraschend, dass die Studie hier keine Effekte feststellen konnte.“
Einschränkungen durch das Studiendesign
„Kritisch könnte angemerkt werden, dass die Stichprobe der Studie einem Selbstselektionseffekt unterliegt: Die Nutzenden konnten sich freiwillig zur Teilnahme anmelden und auch jederzeit ihre Teilnahme abbrechen. Die Autoren weisen darauf hin, dass die untersuchte Stichprobe überdurchschnittlich häufig die Plattformen nutzt. Die Stichprobe weist einige weitere Abweichungen gegenüber der Grundgesamtheit auf (höhere Bildung, mehr Weiße, Frauen und politisch Linksstehende), was in der Auswertung durch Gewichtungen adressiert wurde.“
„Frühere Studien zeigten, dass gewisse Nutzertypen in Sozialen Medien eher mit problematischen Inhalten in Kontakt kommen oder diese verbreiten, wie etwa ältere, eher rechtsstehende Männer. Wir wissen umgekehrt, dass die durchschnittlichen Nutzenden dieser Plattformen dort wenige politische Inhalte sehen und sehr wenige als problematisch zu kategorisierende Inhalte. Künftige Studien könnten daher gezielt die Rolle der Algorithmen bei gewissen Nutzertypen beleuchten.“
Stand der Forschung zur Auswirkung algorithmisch kuratierter Feeds auf User
„Die durch die Plattformen zum Zweck der Kuratierung eingesetzten Algorithmen sind deren Betriebsgeheimnis. Sie dienen offenkundig unterschiedlichen Zwecken, wie der Steigerung von Aufmerksamkeit, aber auch der Entfernung illegaler oder problematischer Inhalte, und sie werden laufend angepasst. Wir wissen daher sehr wenig über ihre Funktionsweise. Oft kann die Forschung nur indirekt erschließen, wie diese Algorithmen vermutlich funktionieren – etwa indem man Nutzer befragt oder deren Verhalten beobachtet. Leider sind Studien in diesem Bereich auch immer nur eine Momentaufnahme, da die Plattformen auf öffentliche Debatten reagieren und die Algorithmen entsprechend weiterentwickeln.“
„Die Autoren der Studie weisen zu Recht darauf hin, dass die Wirkung der Algorithmen selbst dann schwierig zu verstehen wäre, wenn deren Codes offengelegt würden, denn sie dienen nicht zuletzt der Personalisierung der gezeigten Inhalte. Es hängt also auch von den Interessen und dem Verhalten der Nutzenden ab, welche Inhalte die Algorithmen auf- oder abwerten. Was Nutzende auf den Plattformen sehen, hängt also von den Nutzenden selbst, den Kontakten, die sie dort pflegen, den Algorithmen und der Interaktion zwischen diesen Elementen ab.“
„Mit Blick auf die Ergebnisse ist vor allem der Vergleich der Nutzererfahrungen mit entweder chronologischer oder algorithmischer Kuratierung interessant. Sie zeigen in gewisser Hinsicht, dass die Algorithmen aus Sicht von Meta ‚funktionieren‘: Wenn die Algorithmen eingesetzt werden, verbringen die Nutzer mehr Zeit auf der Plattform und interagieren auch mehr mit den Inhalten (‚Likes‘, Kommentare). Meta verfolgt nach eigenen Angaben das Ziel, Nutzenden vor allem Inhalte von ihren ‚Freunden‘ zu zeigen, auch das scheint der Algorithmus zu erreichen. Wenn der Algorithmus greift, werden den Nutzenden weniger politische Inhalte gezeigt. Die gezeigten politischen Nachrichten stammen dann aber eher aus vertrauenswürdigen Quellen. Interessant ist auch, dass Nutzer auf andere Plattformen, wie YouTube oder TikTok, ausweichen, wenn Inhalte nicht durch den Algorithmus selektiert werden, sondern einfach chronologisch erscheinen.“
„Die Studie bestätigt zudem, dass nur wenig von dem, was Nutzende auf Facebook und Instagram sehen, als ‚politische Nachrichten‘ kategorisiert werden kann, und ein noch kleinerer Teil aus wenig vertrauenswürdigen Quellen stammt. Sehr wenige Inhalte werden als unhöflich, inzivil (im Sinne etwa von Hatespeech) oder Misinformation kategorisiert.“
Zur Hypothese, dass Facebooks algorithmisch kuratierter Feed zu mehr Polarisierung führt
„Die Filterblasen-Hypothese gilt schon seit längerem als umstritten, wenn nicht sogar widerlegt. Diverse Studien deuten inzwischen darauf hin, dass es nicht die Algorithmen sind, die Menschen in Echokammern treiben oder sie radikalisieren. Die vorliegende Studie bestätigt im Wesentlichen diese Sichtweise: Wenn die Algorithmen greifen, werden den Nutzenden weniger politische Nachrichten gezeigt. Die Nutzenden sehen zwar mehr politische Inhalte, denen sie entweder zustimmen oder widersprechen, der Schluss liegt aber nahe, dass diese Inhalte eher von ihren Kontakten oder ‚Freunden‘ stammen. Sofern es also Echokammern in den Sozialen Medien gibt, scheinen diese heute vor allem menschgemacht zu sein.“
„Meta dürfte mit der vorliegenden Studie recht zufrieden sein, denn vieles an den Ergebnissen deutet darauf hin, dass die Firma aus der Kritik der Vergangenheit gelernt hat: Die eingesetzten Algorithmen wirken quasi entpolitisierend, politische Nachrichten werden abgewertet, politische Äußerungen eher entmutigt, Inhalte aus fragwürdigen Quellen werden ebenso abgewertet. Auch die Autoren kommen zu dem Schluss, dass problematische politische Trends, wie die affektive Polarisierung in den USA, heute vermutlich nicht auf die Algorithmen des Meta-Konzerns zurückgeführt werden können.“
Ansatz der Kooperation zwischen Meta und den Forschungsteams
„Grundsätzlich ist sehr zu begrüßen, wenn sich die Plattformen für Kooperationen mit der Forschung öffnen. Ideal wäre ein möglichst direkter Zugang der Forschenden zu den Daten der Plattformen, natürlich im Rahmen des Datenschutzes. Je aktiver die Rolle der Plattformanbieter im Forschungsprozess ist, desto mehr geht dies letztlich zulasten der Glaubwürdigkeit der Forschungsergebnisse.“
Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien
Ergebnisse der Studie
„Zunächst einmal zeigt diese Studie ganz klar, dass die algorithmisch kuratierten Feeds bei Facebook und Instagram insbesondere darauf optimiert sind, die NutzerInnen auf der Plattform zu halten, ihnen also besonders Inhalte anzubieten, die ‚sticky‘ sind und Reaktionen produzieren. Eine rein chronologisch gestaltete Präsentation von Inhalten ist deutlich zufälliger und diverser, und dadurch auch weniger attraktiv für NutzerInnen.“
„Ein eher am Rande erwähntes, aber dennoch wichtiges Detail ist übrigens auch, dass die NutzerInnen, die in Folge der chronologischen Kuratierung weniger Zeit auf Facebook oder Instagram verbringen, diese Zeit offenbar wenigstens teilweise mit der Nutzung anderer Plattformen (TikTok, YouTube, Reddit) füllen. Die Einführung chronologischer Feeds auf einzelnen Plattformen verlagert also die Beschäftigung mit möglicherweise einseitigen, extremen, oder anderweitig problematischen Inhalten eventuell nur – hier müssten schon mehrere der wichtigsten Plattformen gleichzeitig Änderungen vornehmen.“
Einschränkungen durch das Studiendesign
„Wirkliche Auswirkungen auf die politische Beteiligung der NutzerInnen scheinen die unterschiedlichen Kuratierungsansätze insgesamt nicht zu produzieren, was allerdings vor allem wohl am zeitlichen und geografischen Kontext der Studie liegt. Eine deutliche Beschränkung der weitergehenden Aussagekraft dieser Studie ist ihr Timing in den Monaten vor und nach der US-Präsidentschaftswahl 2020. Zum einen deckt diese Periode eine politisch ungewöhnlich aufgeladene Zeit ab, in der aktuelle Ereignisse und Medienberichterstattung wahrscheinlich einen größeren Effekt auf die Verhaltensmuster der NutzerInnen haben als die Kuratierungsmodelle der Feeds auf Facebook und Instagram. Die kaum zu unterscheidenden politischen Verhaltensmuster der Studienteilnehmer mit algorithmischen oder chronologischen Feeds, die die Studie beobachtet, sind daher nicht weiter verwunderlich.“
„Zum anderen sind selbst außerhalb von Wahlkampfzeiten Ergebnisse, die sich mit dem aktuellen politischen Umfeld in den USA befassen, trotz aller Beteuerungen der ForscherInnen an dieser Studie kaum noch in andere nationale Kontexte übertragbar: Das zweipolige, extrem auf die Persönlichkeiten der Präsidentschaftskandidaten fokussierte politische System der USA hat fast keine internationale Parallelen, und schon gar nicht in den überwiegend vielparteilichen parlamentarischen Systemen Mitteleuropas. Viele der dieser Studie zugrundeliegenden Annahmen – zum Beispiel die klare Trennung von politischen und Medienangeboten in linke und rechte, zunehmend gegeneinander polarisierte Lager – finden zum Beispiel in Deutschland keine wirkliche Entsprechung: Hier ist eher eine politisch diverse, aber dennoch zur Zusammenarbeit fähige breite Mitte gegen extremere Gruppierungen am linken und besonders am rechten Rand des politischen Spektrums gestellt.“
Stand der Forschung zur Auswirkung algorithmisch kuratierter Feeds auf User
„Wie genau die algorithmische Kuratierung bei Facebook oder Instagram funktioniert, kann auch diese Studie ebenfalls nicht erhellen, weil sie einfach den Unterschied zwischen den Auswirkungen dieser algorithmischen und einer einfachen chronologischen Kuratierung untersucht. Freilich ist es wegen der Vielzahl und der ständigen (auch automatisierten) Optimierung der in den Algorithmus einfließenden Verhaltensdaten inzwischen selbst für Meta selbst schwierig, dieses komplexe System im Detail zu beschreiben.“
Ansatz der Kooperation zwischen Meta und den Forschungsteams
„Immerhin ist es grundsätzlich aber erfreulich, dass diese Studie in Zusammenarbeit mit Meta zustande gekommen ist. Solche Zusammenarbeit bleibt alles andere als unproblematisch, weil sie es den Plattformen ermöglicht, sich bestimmte ForscherInnen als bevorzugte Partner auszuwählen und dadurch bestimmte Forschungsansätze zu privilegieren beziehungsweise zu erschweren – das resultiert dann zum Beispiel auch im Fokus auf die USA in dieser Studie. Allerdings hat das Forschungsteam in diesem Fall offenbar tatsächlich recht autonom gearbeitet und dadurch auch Meta eher weniger genehme Erkenntnisse gewonnen. Dennoch können solche punktuellen Projekte kein Ersatz für die weitere Öffnung von Plattformen für kritische und unabhängige Forschung im öffentlichen Interesse sein, wie sie ja der Digital Services Act der EU nun auch verstärkt einfordert.“
Leiterin der Arbeitsgruppe Alltagsmedien, Leibniz-Institut für Wissensmedien (IWM), Tübingen
Methodik und Ergebnisse der Studie
„Die Studie ist methodisch in vielen Punkten sehr gut. Die Stichprobengröße ist ausreichend groß, um auch sehr kleine Effekte zu finden. Die Forschenden haben Zugang zu den Inhalten der Social Media Feeds und ergänzend die Angaben aus den Fragebogendaten. Gut ist auch, dass zusätzlich Trackingdaten zur Nutzung anderer Plattformen vorliegen.“
„Allerdings gibt es bei diesem Design Selbstselektionseffekte, da die Teilnahme an der Studie freiwillig ist und niemand dazu gezwungen werden kann. Die Autor*innen geben an, dass die Teilnehmenden aktiver (auf Facebook beziehungsweise Instagram; Anm. d. Red.) waren als die Durchschnittsnutzer*innen. Vermutlich haben sie auch ein überdurchschnittliches Interesse an und Wissen über Politik. Dies muss bei der Übertragung der Ergebnisse auf die Gesamtbevölkerung berücksichtigt werden.“
„Trotz dieser Einschränkung zeigen die Ergebnisse klar, dass die Algorithmen das Ziel erreichen, interessante Inhalte von Freund*innen zu präsentieren und Falschinformationen zu reduzieren. Ebenso stimmt die Aussage, dass es auf Basis dieser Studie keinen Hinweis darauf gibt, dass kuratierte Inhalte die Polarisierung in der Gesellschaft erhöhen oder das Wissen über Politik beeinflussen.“
„Es ist jedoch wichtig anzumerken, dass in den USA ein polarisierendes Zweiparteiensystem vorherrscht, in dem es generell schwierig ist, Wähler*innen zu einem Wechsel ihrer politischen Präferenzen zu bewegen. Das könnte ebenfalls erklären, warum sich im Studienzeitraum keine Veränderungen gezeigt haben.“
Stand der Forschung zur Auswirkung algorithmisch kuratierter Feeds auf User
„Es wird zwar oft behauptet, dass algorithmisch kuratierte Feeds zu Filterblasen, Polarisierung und so weiter führen würden, wissenschaftliche Studien kommen aber je nach Methode zu unterschiedlichen Ergebnissen. Es kommt auch darauf an, was man vergleicht. Ein kuratierter Algorithmus zeigt oft weniger meinungskonträre Informationen als ein nicht kuratierter Algorithmus. Dabei wird aber nicht beachtet, dass sich die meisten Menschen ja nicht nur über eine einzige Plattform informieren. Es gibt Hinweise darauf, dass Social Media Nutzer*innen insgesamt über verschiedene Kanäle diversere Nachrichten konsumieren als Personen, die Social Media wenig nutzen.“
„Neu an der Studie ist, dass es einen direkten Vergleich zweier Feeds gibt – das lässt sich ohne Kooperation mit einer Plattform nicht erreichen. Und viele Studien schauen entweder auf den Inhalt der Feeds oder setzen Social-Media-Nutzung mit Polarisierung in Bezug – hier wird beides analysiert.“
Zur Hypothese, dass Facebooks algorithmisch kuratierter Feed zu mehr Polarisierung führt
„Nach dieser Studie gibt es keine Hinweise dafür, dass kuratierte Feeds zu Polarisierung führen, obwohl sie nachweislich mehr Posts von Gleichgesinnten und mehr Posts mit extremeren Positionen anzeigen. Allerdings lässt sich nicht komplett ausschließen, dass die Personen, die den chronologischen Feed gesehen haben, weniger Polarisierung gezeigt hätten, dieser Effekt aber dadurch aufgehoben wurde, dass sie auf andere Plattformen ausgewichen sind, auf denen sie kuratierte Inhalte gesehen haben. Leider werden im Paper nur die Unterschiede zwischen den Gruppen berichtet, aber nicht die Mittelwerte, sodass man nicht einschätzen kann, wie hoch Polarisierung oder das Wissen in der Stichprobe waren.“
„Es ist auch schwer, Änderungen des Feeds zu beurteilen, da wenig kommuniziert wird, wann und wie genau der Feed geändert wird. Die Feeds von Meta zeigen wieder mehr Posts von Freund*innen (im Vergleich zu Gruppen und Seiten) an als früher, und das Eindämmen von Falschinformation hat während der Corona-Pandemie Fortschritte gemacht.“
Ansatz der Kooperation zwischen Meta und den Forschungsteams
„Das ist ein sehr sinnvoller Ansatz. Es sollte mehr von diesen Studien geben, auch für andere Plattformen. Twitter (X) hat ja kürzlich den Zugriff auf die Daten für Forschende eingeschränkt. Bislang erfolgen solche Kooperationen mit amerikanischen Universitäten; es wäre wichtig, dass auch Forschende aus anderen Ländern Zugang zu den Daten von Social Media Plattformen und Kooperationsmöglichkeiten erhalten.“
Vertretungsprofessorin für Empirische Kommunikationswissenschaft, Ludwig-Maximilians-Universität München (LMU), München
Methodik der Studie
„Die Studie basiert auf einem sehr umfangreichen sozialwissenschaftlichen Experiment rund um die Wahlen 2020 in den USA. In Kooperation mit Meta wurden 75.189 Facebook- und 47.642 Instagram-Nutzende zufällig verschiedenen Gruppen zugeteilt.“
„In der hier vorliegenden Studie werden zwei dieser Gruppen näher verglichen: Für eine große Kontrollgruppe (20.087 Teilnehmende allein bei Facebook) wählten die Meta-Algorithmen aus, welche Inhalte angezeigt wurden. Damit entsprach das Erlebnis dem ‚üblichen‘ Social-Media-Umfeld. Für eine kleinere Experimentalgruppe (8.977 Teilnehmende bei Facebook) wurden die Inhalte in chronologischer Reihenfolge angezeigt.“
„Mit Hilfe computergestützter Verfahren wurde dann untersucht, welche Inhalte in den jeweiligen Feeds zu finden waren, wie viel Zeit die Teilnehmenden auf Facebook und Instagram sowie anderen Plattformen verbrachten und wie sie sich online politisch beteiligten, indem sie etwa politische Inhalte teilten oder likten.“
„Die Klassifikation der Inhalte erfolgte teilweise basierend auf den Daten von Meta selbst. Konkrete Hinweise zur Entwicklung dieser Classifier sind nicht verfügbar. Der Anhang verrät jedoch, dass es sich bei der Einschätzung von politischen Inhalten um Modelle für englischsprachige und spanisch-sprachige Inhalte handelt, wobei die Klassifizierung für Facebook etwas besser funktioniert (hier wurden bei der Entwicklung der Classifier über 80 Prozent der Posts korrekt als politisch und nicht-politisch erkannt) als für Instagram (hier werden zwar auch 80 Prozent der Posts korrekt als politisch erkannt, nicht-politische spanische Inhalte werden aber nur zu 60 Prozent korrekt identifiziert). Zudem wurde auf die Expertise von Fact-Checkern und sozialwissenschaftliche Referenzkodierungen zurückgegriffen.“
„In einer Reihe von Befragungen wurden die Teilnehmenden zudem erstens zu ihren Einstellungen gegenüber den Wählenden und Kandidat*innen ihrer eigenen Partei und der jeweiligen Opposition befragt. Polarisierung wurde darüber abgebildet, wie sehr die ‚eigenen Leute‘ bevorzugt wurden. Zweitens wurde das Wissen um die Positionen der beiden Präsidentschaftskandidaten (Donald Trump und Joe Biden) erfasst. Drittens wurde erfragt, wie sehr die Teilnehmenden sich politisch beteiligten.“
„Das randomisierte Kontrollgruppenexperiment ermöglicht die Überprüfung von Kausalannahmen und ist daher geeignet, die Hypothesen zu testen.“
Einschränkungen durch das Studiendesign
„Einschränkend gilt, dass nicht alle Personen, die eingeladen werden, auch an solchen Studien teilnehmen. Es könnte sein, dass spezifische Merkmale Menschen dazu bewegen, an solchen Studien teilzunehmen und die Ergebnisse beeinflussen könnten – zum Beispiel nahmen hier eher Personen teil, die soziale Medien viel und aktiv nutzen. Das ist jedoch eine generelle Herausforderung sozialwissenschaftlicher Umfrageforschung. Der Umfang der hier berichteten Studie ist dennoch deutlich größer als üblich und dadurch geeignet, auch subtile Unterschiede statistisch prüfen zu können.“
„Besonders lobenswert hervorzuheben ist, dass die Studie präregistriert wurde. Das heißt die zu testenden Annahmen sowie die Verfahren zu ihrer Testung wurden im Vorfeld der Analysen veröffentlicht und sind online einsehbar.“
Ergebnisse der Studie
„Die Autor*innen berichten verschiedene zentrale Ergebnisse. So verbringen Personen, deren Feeds chronologisch sortiert sind, weniger Zeit bei Facebook oder Instagram und mehr Zeit auf anderen Plattformen. Aus dem Anhang wird allerdings nicht deutlich, was das konkret bedeutet, da lediglich Prozentwerte angegeben werden. Entsprechend schwierig ist es, einzuschätzen, ob es sich wirklich um einen ‚dramatischen‘ Einbruch der Nutzungszeiten handelt – die angegebenen ‚73 Prozent mehr‘ sind bei einer Minute Zeit weniger ‚dramatisch‘ als 73 Prozent von drei Stunden. Insgesamt interagieren die Teilnehmenden jedoch auch weniger mit den Inhalten in einem chronologischen Feed als mit den Inhalten in einem algorithmisch kuratierten Feed.“
„Chronologische Feeds zeigen zudem weniger Inhalte von Freund*innen (oder Instagram-Accounts, die den Teilnehmenden zurückfolgten) an, stattdessen sahen die Teilnehmenden in der chronologischen Sortierung weniger politische Nachrichten – sowohl von Quellen, die eine ähnliche politische Einstellung vertraten, wie die Teilnehmenden, als auch von oppositionellen Quellen. Interessanterweise sehen die Teilnehmenden aber insgesamt mehr politische Inhalte – wohl, weil mehr politisch moderate Inhalte angezeigt werden.“
„Die Autor*innen schließen daraus, dass algorithmische Kuratierung eher zu Filterblasen beiträgt, allerdings sehen alle Teilnehmenden, unabhängig von ihrem Feed, eher Inhalte von Quellen, die eine ähnliche politische Einstellung vertreten wie sie selbst und der Anteil an politischen Inhalten im gesamten Feed ist eher gering. Zudem zeigen die Daten auch, dass neben Meta-Plattformen viele andere Online-Angebote genutzt werden. Einen Beleg für Filterblasen (die wissenschaftlich eher umstritten sind) würde ich daher aus diesem Befund nicht ziehen.“
„Ebenso gering ist der Anteil an inzivilen Inhalten und Beleidigungen in den Feeds der Teilnehmenden – auch wenn es sich manchmal so anfühlt: Der Großteil digitaler Inhalte besteht nicht aus Beleidigungen oder Politik, sondern vermutlich aus so etwas wie Katzenvideos. Der Anteil ist bei einem algorithmisch sortierten Feed jedoch etwas größer, ein interessanter Nebenbefund angesichts der Diskussion um die Moderation inziviler Inhalte durch Plattformbetreibende.“
„Die geringen Anteile mögen auch der Grund sein, warum keine dramatischen Auswirkungen des veränderten Feeds auf die untersuchten politischen Variablen zu beobachten sind. Weder reduziert chronologische Kuratierung Polarisierung, noch befördert ein solcher Algorithmus politisches Wissen oder fördert selbst-berichtete politische Partizipation außerhalb des Netzes.“
„Lobenswert hervorzuheben ist das breite experimentelle Design der Studie und die Analyse verschiedener relevanter und viel diskutierter Aspekte politischen Verhaltens. Dadurch grenzt die Studie sich klar von anderen Studien ab und bietet viele neue Erkenntnisse.“
Zur Hypothese, dass Facebooks algorithmisch kuratierter Feed zu mehr Polarisierung führt
„Zumindest im untersuchten Zeitpunkt von drei Monaten rund um eine stark polarisierte und hoch-emotionale Wahl waren es nicht Metas Algorithmen, die die Polarisierung in den USA erklären können. Wie die Autor*innen richtig bemerken, heißt das aber nicht, dass soziale Medien oder ihre Inhalte keine Rolle gespielt haben. Es bedeutet meines Erachtens nach aber schon, dass wir uns stärker auf weitere Faktoren konzentrieren sollten, statt alle politische Hoffnung und Sorgen auf algorithmische Kuratierung zu richten.“
„Wie und ob sich die Empfehlungsalgorithmen ‚verbessert‘ haben, ist ohne ein unabhängiges und historisches Auditing leider nicht zuverlässig zu bewerten.“
Ansatz der Kooperation zwischen Meta und den Forschungsteams
„Die Studie sticht klar durch die breite Autor*innenbasis und den Zugang zu einzigartigen Daten hervor. Damit wird ein wichtiger Schritt hin zu mehr Transparenz in einer Gesellschaft geleistet, in der Empfehlungsalgorithmen eine immer wichtigere Rolle spielen. Insofern ist das eine positive Entwicklung. Auch ist es erfreulich, dass die Datenschätze, die in der Wirtschaft entstehen, auch stärker für wissenschaftliche Zwecke nutzbar gemacht werden. Damit wird die Nutzung nachhaltiger und es können Erkenntnisse gewonnen werden, von denen optimalerweise auch die Nutzenden selbst am Ende profitieren.“
„Gleichzeitig ist es natürlich so, dass es sich nicht um einen vollständigen Zugang zu allen relevanten Datenbeständen (zum Beispiel den Trainingsdaten für die Classifier) handelt, oder dass alle Wissenschaftler*innen gleichermaßen Zugang haben. Beispielsweise fokussiert die Studie sich auf die USA – einen vergleichsweise gut erforschten Kontext. Ob ähnliche Ergebnisse auch im globalen Süden und in anderen Sprachen zu finden sind, lässt sich dadurch natürlich nicht beantworten. Zudem liegt es in der Verantwortung von Meta (oder anderen Techplattformen), Forschende für Kooperationsprojekte auszuwählen. Hier eine optimale Balance zwischen wirtschaftlichen Interessen, dem Schutz der Nutzungsdaten, globalen Bedürfnissen sowie wissenschaftlichem Erkenntnisgewinn zu gewährleisten, ist und bleibt eine Herausforderung für alle Beteiligten.“
„Es gibt keine Interessenkonflikte.“
„Interessenkonflikte bestehen nicht.“
„Keine Interessenkonflikte.“
„Es bestehen keine Interessenkonflikte.“
„Lena Frischlich hat in den letzten Jahren Datenzugang von Meta und anderen Tech-Plattformen erhalten (zum Beispiel über CrowdTangle, Advanced Programming Interfaces) und hat bei verschiedenen Gelegenheiten selbst Datenzugang bei Meta und anderen Plattformen beantragt. Sie war nicht Teil des Forschungsprogramms, auf dem dieses Papier basiert, sie hat nie für Meta (oder ein anderes Tech-Unternehmen) gearbeitet und wurde nie von Meta (oder einem anderen Tech-Unternehmen) in Bezug auf die Auswahl von Forschungsfragen, die Durchführung von Analysen oder die Veröffentlichung von Ergebnissen instruiert. Es liegen keine Kollaborationen mit einer beziehungsweise einem oder mehreren der Autor*innen vor.“
Primärquelle
Guess AM et al. (2023): How do social media feed algorithms affect attitudes and behavior in an election campaign? Science. DOI: 10.1126/science.abp9364.
Weiterführende Recherchequellen
Science Media Center (2022): Die Verbreitung von Desinformation. Science Response. Stand: 05.11.2022.
Prof. Dr. Andreas Jungherr
Inhaber des Lehrstuhls für Politikwissenschaft, insbesondere Steuerung innovativer und komplexer technischer Systeme, Otto-Friedrich-Universität Bamberg
Prof. Dr. Christian Hoffmann
Professor für Kommunikationsmanagement, Institut für Medien- und Kommunikationswissenschaft, Universität Leipzig
Prof. Dr. Axel Bruns
Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien
Prof. Dr. Sonja Utz
Leiterin der Arbeitsgruppe Alltagsmedien, Leibniz-Institut für Wissensmedien (IWM), Tübingen
Prof. Dr. Lena Frischlich
Vertretungsprofessorin für Empirische Kommunikationswissenschaft, Ludwig-Maximilians-Universität München (LMU), München