Zum Hauptinhalt springen
06.12.2021

Polarisierung auf sozialen Medien: Tragen User unbewusst dazu bei?

Polarisierung in sozialen Netzwerken kann auch dadurch entstehen, dass Nutzerinnen und Nutzer ihren Newsfeed anpassen und dabei – möglicherweise unwissentlich – immer mehr von ihrer eigenen Meinung abweichende Positionen entfernen. Zu diesem Schluss kommen Forschende in einer Studie, die am 06.12.2021 im Fachjournal „PNAS“ erschienen ist (siehe Primärquelle).

Die Forschenden haben ein Rechenmodell entwickelt, welches das Verhalten von Usern in sozialen Netzwerken in Bezug auf Nachrichtenkonsum und das Kuratieren des Newsfeeds modelliert. Laut den Forschenden zeigt sich, dass User nach einer Informationskaskade, in der ihr Verhalten stark durch das Verhalten anderer User beeinflusst war, ihr eigenes Verhalten evaluieren. Dabei beurteilen User, inwiefern erhaltene und gegebenenfalls weitergeleitete Informationen für sie interessant oder relevant waren. Danach passen sie ihre sozialen Bindungen so an, dass sie in Zukunft mehr Inhalte sehen, die sie persönlich interessieren und mit denen sie übereinstimmen. Das kann zu einer Polarisierung führen, so die Forschenden, da die User ihr Informationsumfeld selbst limitieren und mehr in Richtung von Informationen ausrichten, die ihrer eigenen politischen Einstellung entsprechen. Laut diesem Modell resultiert Polarisierung zum Teil daraus, dass User anderen Usern mit abweichenden Meinungen entfolgen oder sie aus Freundeslisten entfernen. Die Nutzerinnen und Nutzer erhielten so zwar anteilig mehr Nachrichten, die zu ihrer eigenen Meinung passten, aber insgesamt deutlich weniger Informationen. Die Algorithmen der sozialen Medien haben dabei keinen direkten Einfluss. Die Forschenden betonen aber explizit, dass dies nur ein Faktor von vielen ist, die zu Polarisierung führen können.

Die Befunde des Modells haben die Forschenden anhand von Beobachtungsdaten auf Twitter überprüft und konnten Nutzerverhalten feststellen, das ihre These unterstützt: Twitter-User, die eher nach links beziehungsweise rechts tendierenden Medien folgten, entfolgten schneller Usern, die nicht ihrer politischen Einstellung entsprachen, als User, die gemäßigteren Medien folgten.

Die Studie ist eine von acht Studien, die am Montag in PNAS erscheinen werden und sich mit Polarisierung in verschiedenen Kontexten befassen. Da wir bei dieser Studie die Rolle der Nutzerinnen und Nutzer und deren Verhalten für besonders interessant halten, haben wir Expertinnen und Experten nach einer Einschätzung gefragt.

Übersicht

     

  • Prof. Dr. Michael Mäs, Professor für Soziologie und Computational Social Science, Karlsruher Institut für Technologie (KIT)
  •  

  • Dr. Philipp Müller, Akademischer Rat am Institut für Medien- und Kommunikations­wissenschaft , Universität Mannheim
  •  

Statements

Prof. Dr. Michael Mäs

Professor für Soziologie und Computational Social Science, Karlsruher Institut für Technologie (KIT)

Auf die Frage nach dem aktuellen Stand der Forschung zu Echokammern und wie die Befunde der Studie dazu passen:
„Es wird in diesem Kontext oft gewarnt, dass soziale Medien im Internet zur Spaltung der Gesellschaft beitragen. Insbesondere sollen NutzerInnen durch Personalisierungsalgorithmen vor allem Inhalten von politisch Gleichgesinnten ausgesetzt werden. Das soziale Netzwerk zerfällt dann in Teilnetzwerke (Filterblasen) in denen entweder nur Linke oder nur Rechte miteinander kommunizieren.“

„Bisherige Forschung zeigt ein unklares Bild. Es gibt mittlerweile viel Evidenz für zunehmende Meinungspolarisierung zum Beispiel in den USA. Gleichzeitig zeigt sich, dass dort soziale Netzwerke wie Twitter besonders während der Wahlperiode in demokratische und republikanische ‚Blasen‘ zerfallen. Ob diese Netzwerksegregation für die Meinungspolarisierung verantwortlich ist und welche Rolle Personalisierungsalgorithmen dabei spielen, ist aber umstritten. Ein häufig verwendetes Gegenargument ist, dass es immer noch viele Bereiche des Netzes gibt, wo sich rechts und links treffen. Es gibt viele moderate Nachrichtenquellen und wir schauen alle die gleichen Katzenvideos.“

„Computermodelle, wie das der vorliegenden Studie, können hier helfen. Wir lernen in der Corona-Pandemie gerade, dass die niedrigen Fallzahlen des Sommers nicht den Schluss zuließen, dass es im Winter keine Probleme geben wird. Modelle konnten die vierte Welle aber schon im Sommer vorhersehen. Genauso könnten gut getestete Modelle von sozialen Netzwerken vorhersagen, wie sich Algorithmen langfristig auf die Struktur der Netzwerke auswirken werden.“

„Das hier entwickelte Modell generiert Blasen in Netzwerken auch ohne Filteralgorithmen und ohne, dass NutzerInnen gezielt Beziehungen zu Gleichgesinnten aufbauen. Trotzdem stellt das Modell die Filterblasen-Hypothese aber nicht in Frage. Vielmehr wird eine alternative Theorie entwickelt. Das heißt auch, die neue Theorie kann erklären, dass ein soziales Netzwerk in Blasen zerfällt und sie nimmt dabei nicht an, dass es Personalisierungsalgorithmen gibt oder dass NutzerInnen gezielt Kontakte zu Gleichgesinnten knüpfen. Das ist innovativ, aber bedeutet nicht, dass diese in der Analyse ausgeschlossenen Effekte im wahren Leben nicht doch eine wichtige Rolle spielen. Auch wenn die empirische Studie die neue Theorie stützt, sagt sie nichts über konkurrierende Theorien aus.“

„Das vorgestellte Modell ist innovativ und der beschriebene Mechanismus, der für die Netzwerksegregation verantwortlich ist, ist neu. Das ist spannend. Wie bei allen neuen Modellen gibt es aber eine Vielzahl von Fragen. Zeigen sich beispielsweise die gleichen Effekte in großen Netzwerken – bei mehr als nur 200 Agenten? Es wird auch unterstellt, dass es genau zwei antagonistische Medien gibt. Die empirische Forschung zeigt aber, dass NutzerInnen in hohem Maße auch moderaten Quellen folgen. Diese könnten die Modellvorhersagen stark verändern.“

„Eine möglicherweise zentrale Schwachstelle ist, dass die politischen Meinungen der Agenten nur links oder rechts sein können. In der empirischen Forschung und auch den Modellen, die von den Autoren kritisiert werden, werden Meinungen aber auf einem Kontinuum gemessen. Es muss auch untersucht werden, wie sich das Modell verhält, wenn man annimmt, dass die Agenten ihre politischen beziehungsweise medialen Präferenzen an die Inhalte anpassen, die sie im Netz konsumieren.“

„Die empirische Studie auf Twitter besticht durch ein einfaches Studiendesign. Die berichteten Effekte sind schwach, aber in komplexen Systemen wie dem Internet können auch kleine Dinge große Effekte haben. Der Schwachpunkt der empirischen Studie ist, dass unklar bleibt, ob die Hypothese, die hier getestet wird, auch aus anderen Theorien folgt. Somit bestätigt die Studie zwar die neue Theorie, aber sagt nichts zur Filterblasen-Theorie.“

Auf die Frage, was die Effekte davon sind, dass die Polarisierung und Netzwerksegregation unbemerkt und unabhängig vom Wissen um die politische Meinung der entfolgten User stattfinden können und wie man solchen Effekten entgegenwirken kann:
„Hierbei handelt es sich vor allem um einen methodischen Trick. Das Ziel der Modellierungsstudie ist es, zu zeigen, dass Netzwerke segregieren können, auch ohne Effekte von Algorithmen und ohne dass NutzerInnen gezielt Gleichgesinnten folgen. Somit werden diese beiden Effekte im Modell nicht angenommen und gezeigt, dass trotzdem Blasen entstehen können.“

„In der Realität machen diese Annahmen aber wenig Sinn, denn Nutzer von sozialen Netzwerken kennen in der Regel ja die Personen, denen sie folgen und sie sehen, welche Inhalte diese Personen teilen. Somit kennen sie deren politische Meinungen. Hier könnte sogar ein Lösungsansatz liegen. Wenn Nutzer gezielt versuchen, Netzwerkbeziehungen zu Vertretern des politischen Gegners zu erhalten, dann könnte der Segregationsmechanismus des neuen Modells aufgehalten werden.“

Auf die Frage, was der wichtigste Aspekt beim Thema Polarisierung in der Gesellschaft ist:
„Die zentrale Frage ist, welche Effekte soziale Netzwerke auf Meinungspolarisierung, die Verbreitung von Fake News und politische Ereignisse wie die Wahl von Donald Trump, den Brexit oder den Sturm auf das Kapitol in Washington haben. Die Forschung zeigt kein klares Bild, weshalb es Unternehmen wie Facebook und Google leichtfällt, einen Einfluss und somit eine Verantwortung zu leugnen. In den kommenden Jahren muss daher mit Hochdruck daran gearbeitet werden, den Einfluss von digitaler Kommunikationstechnologie auf die demokratische Debatte und Entscheidungsfindung zu quantifizieren. Dazu brauchen wir von der Industrie unabhängige Forschung. Nur wenn das gelingt und wenn sich tatsächlich zeigt, dass unerwünschte Effekte vorliegen, können Unternehmen dazu gezwungen werden, ihre Technologie anzupassen. Der Einfluss von digitaler Technologie steigt. Negative Folgen dieser Technologie auf die Gesellschaft müssen verstanden werden, bevor sie nicht mehr reparabel sind.“

Dr. Philipp Müller

Akademischer Rat am Institut für Medien- und Kommunikations­wissenschaft , Universität Mannheim

„Ich bin eher zurückhaltend damit, der Interpretation der Daten durch die Studien-Autor:innen zuzustimmen. Hierfür sind aus meiner Sicht drei Gründe maßgeblich.“

„Erstens: Die Studie suggeriert, dass sogenannte ‚polarisierte Informationsumgebungen‘ auf Social Media Nutzer:innen in ideologische Lager aufteilen, indem Nutzer:innen anderen entfolgen, die Nachrichteninhalte aus politisch extremeren Quellen teilen, die nicht ihren eigenen politischen Überzeugungen entsprechen. Um diesen Ansatz beurteilen zu können, ist es wichtig, zu rekapitulieren, was das schillernde Buzzword ‚Polarisierung‘ im Kern überhaupt benennt. In der Forschung wird darunter in der Regel verstanden, dass politische Einstellungen in der Bevölkerung im Zeitverlauf in unterschiedlichen Meinungslagern gleichzeitig extremer werden (ideologische Polarisierung) oder dass die Zugehörigkeitsgefühle zu politischen Lagern und die Ablehnung anderer Lager über die Zeit wachsen (affektive Polarisierung). Dies kann sich auf der Ebene veröffentlichter Botschaften von Medien oder Privatpersonen spiegeln. Im Kern ist das Konstrukt aber auf der Personenebene angesiedelt, nicht auf der Ebene von Medienbotschaften. Tatsächlich berücksichtigt wird in den Daten dieser Studie Polarisierung jedoch nur auf Ebene der Medieninhalte, nicht in den Einstellungen der Nutzer:innen. Etwaige Polarisierungswirkungen der vermeintlichen Lagerbildung auf Social Media kann die Studie also gar nicht überprüfen. Und auch mit der Behauptung, dass hier der Effekt ‚polarisierter Informationsumgebungen‘ gemessen würde, sollte man vorsichtig sein, da in der empirischen Überprüfung für jede untersuchte Nutzer:in nur eine Nachrichtenquelle erfasst wurde, der sie folgt, nicht das gesamte Informationsrepertoire (ich gehe darauf auch noch in meinem dritten Argumentationspunkt ein).“

„Zweitens: Der Kern der Studie besteht aus dem bereits genannten Simulationsmodell. Dieses wurde nach meinem Ermessen von den Autor:innen aufwendig und methodisch sauber aufgesetzt und analysiert. Es ist jedoch grundsätzlich anzumerken, dass Simulationsmodelle, auch wenn sie mit quantitativen Daten arbeiten, lediglich theoretische Überlegungen darstellen beziehungsweise widerspiegeln. Die Daten werden nicht in der Realität erhoben, sondern vom Computer generiert. Das Modell kann letztlich nur das Ergebnis zeigen, das die Annahmen vorgeben, die die Forschenden ihm ‚einprogrammieren‘. Insofern sind Simulationsmodelle zwar nützliche Tools, um konzeptuelle Annahmen zu Ende zu denken, deren Folgen menschliches Denken nicht zu überblicken vermag. Die von den Modellen erzeugten Daten verbleiben jedoch auf der Ebene der konzeptuellen Annahme. Es handelt sich im strengen Sinne nicht um einen ‚Beweis‘ für die Richtigkeit einer Theorie. Daher müssen Simulationsmodelle mittels empirischer Daten überprüft werden. Dies tun die Autor:innen auch, was generell sehr zu begrüßen ist. Die empirische Überprüfung selbst ist aber sehr basal, weist Leerstellen auf und ist aus meiner Sicht nicht geeignet, um die Annahmen des Modells zu untermauern.“

„Drittens: Das Simulationsmodell wird in der Studie empirisch überprüft, indem untersucht wird, inwiefern zufällig ausgewählte Follower:innen von vier verschiedenen US-Nachrichtenquellen über einen Sechs-Wochen-Zeitraum mehr eigene Follower:innen aus dem entgegengesetzten politischen Lager verlieren, als durch Zufall zu erklären wäre. Die Befunde zeigen, dass Follower:innen politisch extremerer Nachrichtenquellen eher Follower:innen des anderen Lagers verlieren. Zwei für die Gültigkeit der in der Studie aufgestellten Theorie-Annahmen wichtige Aspekte überprüft dieser empirische Test jedoch nicht: Erstens ist es unklar, wie sich das Quellenmenü der untersuchten Personen insgesamt zusammensetzt. Die Studie spricht von polarisierten Informationsumgebungen, diese lassen sich jedoch nur durch einen Gesamtblick auf alle Quellen erfassen, denen ein Mensch folgt. Das Folgen einer einzelnen politisch extremen Quelle ist nicht genug, um von einer ‚polarisierten Informationsumgebung‘ zu sprechen. Zweitens lässt sich anhand der Daten keinesfalls schlussfolgern, dass die Nachrichtenquellen, denen Nutzer:innen folgen, ursächlich dafür verantwortlich sind, dass diese über die Zeit Follower:innen des anderen politischen Lagers verloren haben. Vielmehr erscheint es wahrscheinlich, dass Nutzer:innen, die extremeren Quellen folgen, bereits selbst extremere politische Einstellungen mitbringen. Dass andere Nutzer:innen mit entgegengesetzten Einstellungen ihnen entfolgen, kann auch einfach daran liegen, dass sie, ganz unabhängig von den Nachrichten, die sie in dem fraglichen Zeitraum rezipiert haben, politisch extreme und den Einstellungen der entfolgenden Nutzer:innen widersprechende Inhalte gepostet haben. Zugegebenermaßen ist es methodisch extrem anspruchsvoll, den in der Simulationsstudie modellierten theoretischen Zusammenhang empirisch zu überprüfen. Die hier vorgelegten Daten können mich jedoch nicht vollends überzeugen, da die darin zutage tretenden Muster eben auch durch andere Faktoren ausgelöst worden sein können, als die von den Autor:innen unterstellten.“

„Über die konkrete Methodologie der Studie hinaus lässt sich zudem festhalten, dass existierende empirische Untersuchungen zum Auftreten sogenannter ‚Echokammern‘ auf Social Media, deren Entstehen ja das Ergebnis der in der Studie untersuchten Mechanismen wäre, eher darauf hindeuten, dass solche kongruenten Meinungsumfelder unter Social-Media-Nutzer:innen nicht im großen Stil auftreten [1] [2] [3] [4]. Im Gegenteil: Es gibt sogar Hinweise darauf, dass Social-Media-Nutzung insgesamt zu einer vielfältigeren Informationsumgebung führt [4]. In jedem Fall legen die hier angeführten Studien nahe, dass stets das gesamte Informationsmenü von Personen untersucht werden sollte, sonst lässt sich keine valide Aussage über ihre Informationsumgebung treffen [1].“

„Meine Vermutungen zu den Verbindungen einer durchaus zu beobachtenden zunehmenden gesellschaftlichen Polarisierung – in vielen westlichen Ländern, nicht jedoch in Deutschland, vergleiche [5] – zur Social-Media-Nutzung gehen eher dahin, dass es gerade die starke Konfrontation mit entgegengesetzten politischen Meinungen auf Social Media ist, die bei Menschen heftige emotionale Reaktionen auslösen kann und damit die affektive Polarisierung wachsen lässt [6]. Dies würde bedeuten, dass das Entstehen von inhaltlich eingeschränkten Informationsumfeldern keinesfalls das Hauptproblem der Kommunikation über Social-Media-Plattformen darstellt.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Michael Mäs: „Es liegen keine Interessenkonflikte vor.“

Alle anderen: Keine Angaben erhalten.

Primärquelle

Tokita CK et al. (2021): Polarized information ecosystems can reorganize social networks via information cascades. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.2102147118.

Literaturstellen, die von den Experten zitiert wurden

[1] Dubois E et al. (2018): The echo chamber is overstated: The moderating effect of political interest and diverse media. Information, Communication & Society. DOI: 10.1080/1369118X.2018.1428656.

[2] Eady G et al. (2019): How Many People Live in Political Bubbles on Social Media? Evidence From Linked Survey and Twitter Data. SAGE Open. DOI: 10.1177/2158244019832705.

[3] Flaxman S et al. (2016): Filter Bubbles, Echo Chambers, and Online News Consumption. Public Opinion Quarterly. DOI: 10.1093/poq/nfw006.

[4] Scharkow M et al. (2020): How social network sites and other online intermediaries increase exposure to news. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1918279117.

[5] Boxell L et al. (2021): Cross-country tends in affective polarization. Cambridge, MA: National Bureau of Economic Research. DOI: 10.3386/w26669.

[6] Bor A et al. (2021): The Psychology of Online Political Hostility: A Comprehensive, Cross-National Test of the Mismatch Hypothesis. American Political Science Review. DOI: 10.1017/S0003055421000885.

Weitere Recherchequellen

Science Media Center (2021): Polarisierte Debatten, Gesundheitsfolgen und undurchsichtige Algorithmen – Wie müssen soziale Medien reguliert werden? Press Briefing. Stand: 18.10.2021.