Zum Hauptinhalt springen
18.10.2021

Polarisierte Debatten, Gesundheitsfolgen und undurchsichtige Algorithmen – Wie müssen soziale Medien reguliert werden?

Anlass

Soziale Medien wie Facebook und Twitter haben zu viel Einfluss. Dieser Konsens scheint sich sowohl in der Politik als auch bei Nutzerinnen und Nutzern zu etablieren – und das nicht erst seit den jüngsten Skandalen um Facebook. Sei es wegen der Rolle von Facebook bei der US-Wahl 2016, dem Löschen von Donald Trumps Accounts oder dem Thema Desinformation in der Politik oder bei COVID-19: Immer wieder kommt die Diskussion auf, ob und wie soziale Medien reguliert werden müssen.

Aktuell ist diese Debatte sichtbarer denn je. Durch die Aussagen und Veröffentlichungen der Ex-Facebook-Mitarbeiterin und Whistleblowerin Frances Haugen und die Berichterstattung des Wall Street Journals in den „Facebook Files“ [I] steht die Plattform momentan besonders unter Druck. Kürzlich hat der US-amerikanische Senat Beteiligte zu Anhörungen zum Thema vorgeladen [II] [III]. Die Vorwürfe gegen Mark Zuckerbergs Unternehmen sind zahlreich. Vor allem zwei Effekte der Plattform stehen im Mittelpunkt – die verstärkende Polarisierung von öffentlichen Debatten und negative Effekte auf die mentale Gesundheit von Jugendlichen. Tenor der Kritik: Facebook weiß um diese Probleme, handelt aber intransparent, stellt Profit über das Wohl der User und unternimmt insbesondere in Entwicklungsländern zu wenig gegen die Probleme.

Facebook führt verschiedene Argumente dagegen ins Feld – nur einige beschäftigen sich inhaltlich tatsächlich mit den aufgeworfenen Problemen [IV]. Das Unternehmen fokussierte dabei vor allem auf den Zusammenhang zwischen sozialen Medien und der Gesundheit – was sich auch in der öffentlichen Debatte zum Thema widerspiegelt. Die Argumente: Die Wissenschaft sei zu diesen Effekten nicht eindeutig; die interne Forschung zeige, dass Instagram in den meisten Fällen sogar eine positive Wirkung habe [V]. Tatsächlich ist die Erforschung der Zusammenhänge zwischen Gesundheitsaspekten und sozialen Medien komplex und sie sind schwer eindeutig nachzuweisen. Doch wie aussagekräftig ist die Unternehmensforschung im Vergleich zu akademischen Untersuchungen?

Ein bisher nicht so prominent behandelter Aspekt der aktuellen Debatte ist der Vorwurf, soziale Medien verstärkten die Polarisierung von öffentlichen Debatten und stützen die Spaltung der Gesellschaft – zum Zwecke der Reichweitenoptimierung. Facebook hat laut den neuen Veröffentlichungen 2018 einen Algorithmus verändert, um die Interaktion mit Beiträgen auf ihrer Plattform zu erhöhen. Diese Umstellung auf „Engagement Based Ranking“ soll allerdings dazu geführt haben, dass kontroverse und polarisierende Inhalte prominenter angezeigt werden [VI].

In der aktuellen Debatte rufen verschiedene Akteure immer lauter nach einer gesetzlichen Regulierung der großen sozialen Medien. Sowohl in der Senatsanhörung in den USA als auch in der EU kam das Thema jüngst auf den Tisch; selbst Facebook-Chef Zuckerberg sprach sich für eine externe Regulierung aus. Der EU-Binnenmarktkommissar Thierry Breton hatte die Dringlichkeit eines starken Digital Services Acts (DSA) und Digital Markets Acts (DMA) als Gesetzesvorhaben auf europäischer Ebene und damit entsprechende Regulierung von großen Tech-Unternehmen betont [VII].

Wie genau diese Regulierung allerdings aussehen könnte und sollte, ist noch nicht in Stein gemeißelt. Im Dezember 2020 hat die Europäische Kommission die Gesetzesvorschläge zum DSA [VIII] und DMA [IX] vorgestellt. In einer ersten Einschätzung [X] sagten drei Experten dem SMC, die Vorschläge gingen in eine gute Richtung und verbesserten den Status quo, es gebe aber noch Verbesserungsbedarf. Was sollte also das Ziel einer Regulierung von sozialen Medien sein? Auf welcher Ebene sollte eine solche stattfinden? Was ist über die Wirkung von sozialen Medien auf öffentliche Debatten und das Gesellschaftsklima insgesamt bekannt? Welche psychologischen Auswirkungen kann der Konsum von sozialen Medien haben? Was ist über die Funktionsweise der zugrundeliegenden Algorithmen bekannt? Und wie belastbar und unabhängig ist die Forschung zu diesem Thema?

Diese Fragen – und Ihre – beantworteten eine Expertin und zwei Experten in einem 50-minütigen virtuellen Press Briefing.

Expertin und Experten im virtuellen Press Briefing

     

  • Prof. Dr. Axel Bruns
    Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Brisbane, Australien
  •  

  • Prof. Dr. Matthias Kettemann
    Forschungsprogrammleiter „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI), Hamburg, und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich
  •  

  • Prof. Dr. Nicole Krämer
    Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen
  •  

Abschluss-Statements aus dem Press Briefing

Das SMC hat die Expertin und die Experten am Ende des Press Briefings gefragt, welche Punkte am wichtigsten für die aktuelle Debatte sind und welche Regulierungen nun durchgesetzt werden müssen. Die Antworten auf diese Fragen stellen wir Ihnen nachfolgend als Statements zur Verfügung.

Prof. Dr. Nicole Krämer

Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen

„Regulierung halte ich insbesondere mit Blick auf Aspekte wie Hate Speech und Falschinformationen für wichtig. Da haben wir uns auch schon in Einklang mit den juristischen Fachleuten vor Jahren festgelegt, dass es Regulierung gesetzlich oder entlang der Gesetze braucht, um es auch aus psychologischer Sicht hinzukriegen, Dinge, die ohnehin gesetzlich in Deutschland verboten sind, möglichst schnell auch aus dem Netz zu entfernen.“

„In Bezug auf die psychologischen Wirkungen, zum Beispiel was Instagram-Bilder und die potenzielle Gefährdung junger Frauen angeht, fällt es mir schwer, mir vorzustellen, wie eine Regulierung aussehen soll. Und die vorgeschlagenen Regularien, Kinder auszuschließen von der Plattform, eine eigene Plattform zu bieten, oder Warnhinweise zu senden, sind in diesem Zusammenhang psychologisch voraussichtlich weniger wirksam, als sie das wiederum in den Bereichen Hate Speech oder Falschinformationen sind. Daher kann man da nur gesamtgesellschaftlich wirken – in den Schulen, den Elternhäusern und auch in der öffentlichen Berichterstattung – um da zu sensibilisieren und jungen Mädchen an anderer Stelle noch Rückhalt zu geben.“

Prof. Dr. Matthias Kettemann

Forschungsprogrammleiter „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI), Hamburg, und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich

„Ich halte für am wichtigsten, dass sich die Grundprinzipien der Rechtsstaatlichkeit in allen Bereichen der Gesellschaft durchsetzen. Das heißt, die Plattformen müssen sich an Recht halten, sie müssen klar machen, nach welchen Richtlinien sie löschen. Sie müssen den Leuten bekanntgeben, warum sie löschen und wie sie sich dagegen wehren können. Das entschärft dann das Gefühl der Machtlosigkeit gegenüber diesen Plattformentscheidungen, genauso wie eine Erklärung eines Staates über etwa Corona-Maßnahmen das Gefühl der Machtlosigkeit gegenüber staatlichen Maßnahmen entschärft. Wenn man Gründe hat, warum etwas geschieht, dann kann man diese Gründe zwar kritisieren, aber sie sind zumindest da und man kann sie besser verstehen.“

„Das heißt, mein Ruf ist für mehr Rechtsstaatlichkeit, zumindest einmal als wichtigen Zwischenschritt hin zu einer besseren Online-Kommunikation. Inhalte werden und wollen wir in näherer Zukunft nicht stärker regulieren. Das soll nicht den Freiheitsraum der Online-Kommunikation gefährden. Also mehr Rahmenpflichten.“

Prof. Dr. Axel Bruns

Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Brisbane, Australien

„Ich denke, was vor allem wichtig ist, ist die Überprüfung der Maßnahmen, die die Plattformen selbst unternehmen, um bestimmte Probleme zu regulieren oder einzudämmen. Und was ganz besonders fehlt, sind die Daten. Da müssen wir für die gemeinnützige und unabhängige Forschung die Daten einfordern, die es uns erlauben, zu überprüfen, ob die Maßnahmen auch wirklich greifen und wie weit sie dann auch längerfristig weiterverfolgt und durchgesetzt werden. Dabei geht es zum Beispiel um Maßnahmen von Facebook, Twitter und anderen Plattformen gegen Falschinformationen, den Missbrauch von Daten oder die problematischen Werbeaktionen auf diesen Plattformen.“

„Dazu muss man von außen überprüfen können, was die Plattformen machen. Und das ist im Augenblick nicht gegeben. Und da denke ich, muss noch sehr viel mehr gemacht werden, dass die unabhängige Forschung auch wirklich sehen kann, was nun wirklich die Probleme sind auf diesem Gebiet.“

Video-Mitschnitt & Transkript

 

Ein Transkript finden Sie hier.

Literaturstellen, die vom SMC verwendet wurden

[I] The Wall Street Journal (2021): The Facebook Files. A Wall Street Journal investigation. 

[II] U.S. Senate Committee on Commerce, Science & Transportation (05.10.2021): Protecting Kids Online: Testimony from a Facebook Whistleblower. Anhörung von Frances Haugen.

[III] U.S. Senate Committee on Commerce, Science & Transportation (30.09.2021): Protecting Kids Online: Facebook, Instagram, and Mental Health Harms. Anhörung von Antigone Davis, Sicherheitschefin bei Facebook.

[IV] Clegg N (18.09.2021): What the Wall Street Journal Got Wrong. Facebook Newsroom.

[V] Raychoudhury P (26.09.2021): What Our Research Really Says About Teen Well-Being and Instagram. Facebook Newsroom.

[VI] Hagey K et al. (15.09.2021): Facebook Tried to Make Its Platform a Healthier Place. It Got Angrier Instead. The Wall Street Journal.

[VII] Breton T (06.10.2021): Post auf Twitter.

[VIII] Europäische Kommission (15.12.2020): Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC. Der Gesetzesvorschlag zum Digital Service Act.

[IX] Europäische Kommission (15.12.2020): Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on contestable and fair markets in the digital sector (Digital Markets Act). Der Gesetzesvorschlag zum Digital Markets Act.

[X] Science Media Center (2020): EU-Kommission schlägt neuen Rechtsrahmen für Plattformbetreiber vor. Rapid Reaction. Stand: 15.12.2020.