Zum Hauptinhalt springen
17.10.2023

„Twitter-Exodus“ und Desinformation

     

  • Vorwürfe gegen X: mehr Desinformation, rauere Debattenkultur, mehr Polarisierung
  •  

  • zunehmende Debatte unter Usern, die Plattform zu verlassen
  •  

  • Forschende sehen Vorwürfe teils durch Daten belegt, kein klarer „Twitter-Nachfolger“ in Sicht
  •  

In den vergangenen Wochen scheint sich die Kontroverse um X (ehemals Twitter) weiter verstärkt zu haben. Gerade im Zuge des Hamas-Terrorismus gibt es Vorwürfe, dass die Menge der Desinformation auf der Plattform zugenommen hat. Und seit der Übernahme durch Elon Musk äußern viele Beobachter den Eindruck, dass der Umgangston rauer und die Debatten und Standpunkte polarisierter werden. Es macht auch den Eindruck, dass zurzeit immer mehr Personen X verlassen – gerade erst hat die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, ihren Rückzug von der Plattform angekündigt und auch andere staatliche Stellen dazu aufgerufen. Als Gründe gab sie Desinformation, Äußerungen von Musk und die allgemeine Debattenkultur an.

Der EU-Kommissar für Binnenmarkt und Dienstleistungen, Thierry Breton, hat in einem auf X veröffentlichten offenen Brief Bedenken über die Zunahme der Desinformation geäußert und auf die Verpflichtungen durch den Digital Services Act hingewiesen. Elon Musk gab sich zwar trotzig, Linda Yaccarino – Chief Executive Officer von X – legte aber in einer Antwort die ergriffenen Gegenmaßnahmen dar. Auch das für die Sicherheit zuständige Team von X hat auf die Vorwürfe der zunehmenden Desinformation reagiert und die auf der Plattform ergriffenen Gegenmaßnahmen beschrieben. Mittlerweile hat die EU-Kommission offenbar auch Ermittlungen aufgenommen und fordert weitere Informationen von X.

Fragen nach Desinformation und Polarisierung auf X sind also momentan von den normalen Usern bis zur höchsten Leitungs- und Regulierungsebene ein Thema. Teils wird sehr emotional diskutiert. Doch die wirkliche Faktenlage ist oft undurchsichtig. Gibt es Daten, ob die Polarisierung und die Verbreitung von Desinformation auf X zugenommen hat? Wenn ja, wie viel? Was könnten Auswirkungen davon sein? Und sind die aktuellen Maßnahmen auf der Plattform ausreichend, um der Regulierung durch den Digital Services Act zu genügen? Oder bräuchte es sogar zusätzliche Regulierung? Um diese Fragen zu adressieren und den momentanen Stand der Evidenz aufzuarbeiten, haben wir Expertinnen und Experten aus den Bereichen Desinformation, Social Media und Plattformregulierung um Statements gebeten.

Übersicht

     

  • Prof. Dr. Axel Bruns, Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien
  •  

  • Prof. Dr. Curd Knüpfer, Juniorprofessor für Politikwissenschaft, Freie Universität Berlin
  •  

  • Prof. Dr. Matthias Kettemann, Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich
  •  

  • Prof. Dr. Sonja Utz, Leiterin der Arbeitsgruppe Alltagsmedien, Leibniz-Institut für Wissensmedien (IWM), Tübingen
  •  

  • Prof. Dr. Andreas Jungherr, Inhaber des Lehrstuhls für Politikwissenschaft, insbesondere Steuerung innovativer und komplexer technischer Systeme, Otto-Friedrich-Universität Bamberg
  •  

  • Prof. Dr. Christian Hoffmann, Professor für Kommunikationsmanagement, Institut für Medien- und Kommunikationswissenschaft, Universität Leipzig
  •  

  • Prof. Dr. Edda Humprecht, Professorin für Digitalisierung und Öffenltichkeit, Institut für Kommunikationswissenschaft , Friedrich-Schiller-Universität Jena
  •  

  • Prof. Dr. Christoph Busch, Professor für Europäisches Wirtschaftsrecht und Direktor des European Legal Studies Institute, Universität Osnabrück
  •  

Statements

Prof. Dr. Axel Bruns

Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien

Zu den Vorwürfen gegen X

„Auch wenn Twitter/X es nun für ForscherInnen und andere kritische BeobachterInnen immer schwieriger macht, dazu systematisch Daten zu erheben, sind diese Vorwürfe ganz eindeutig belegt. Die Plattform wird mittlerweile von Akteuren, die Desinformationen streuen und Hass verbreiten, geradezu überrannt (hier zum Beispiel ein Preprint einer aktuellen Studie meines Kollegen Tim Graham [1]), und hat dies diesen Akteuren auch sehr einfach gemacht. Die Moderatorenteams, die vormals zumindest gegen die schlimmsten Fälle gezielt und mit einigem Erfolg vorgegangen sind (wie etwa gegen Kinderpornographie [2]), wurden durch die Massenentlassungen der letzten Monate wie viele andere Abteilungen der Plattform stark dezimiert – falls sie denn überhaupt noch existieren. Und die Einführung von für alle Teilnehmer käuflichen angeblichen Verifizierungshäkchen – den sogenannten Blue Ticks, die vorher von Twitter nur auf Anfrage und nach wirklicher Überprüfung vergeben wurden – macht es jedem Accountbetreiber möglich, sich als angebliche Autorität zu präsentieren.“

„Zusätzlich werden diese ‚verifizierten‘ Accounts auch noch durch die Algorithmen bevorzugt, die die Feeds und Suchergebnisse zusammenstellen. Dies wird von vielen Informationskampagnen gezielt ausgenutzt: Suchen zu aktuellen Themen führen daher nicht mehr zu wirklich informativen Inhalten, sondern vor allem zu Spam und Desinformationen (weitere Berichterstattung: [3] [4]). Außerdem hat auch Musk selbst immer mal wieder Desinformationen – zum US-Wahlkampf, COVID-19, dem Ukrainekrieg und anderen Themen – wohlwollend weitergeleitet und sie so seinem Netzwerk von fast 160 Millionen Followern empfohlen.“

„Weiterhin hat Twitter/X unter Musk einige vormals aus guten Gründen gesperrte Accounts wieder ans Netzwerk gelassen – außer Donald Trump zum Beispiel auch Accounts, die Kinderpornographie verbreitet hatten [5]. Und sein neues System für die Ausschüttung eines Teils der Einkünfte aus dem Anzeigengeschäft an Content Creators hat einige große Zahlungen an höchst problematische Accounts vorgenommen – darunter beispielsweise der des in Rumänien unter Verdacht des Menschenhandels und der Zwangsprostitution festgehaltenen frauenfeindlichen Influencers Andrew Tate [6].“

„Elon Musk und sein Team berührt dies offenbar nicht: Statt die schlimmsten Auswirkungen dieser Änderungen wieder rückgängig zu machen, verteidigt er sie als Teil seiner Free-Speech-Politik und verklagt gemeinnützige Organisationen wie das Center for Countering Digital Hate, das immer wieder besonders auf die Zunahme an antisemitischen Inhalten und COVID-Desinformationen in sozialen Netzwerken aufmerksam macht [7]. Und auch staatliche Institutionen wie Australiens e-Safety Commissioner [8] oder der EU-Kommissar Thierry Breton [9] kommen offenbar nur bedingt zu Musk durch mit ihren Forderungen, Desinformationen, Hass, Antisemitismus und andere inakzeptable Inhalte zu entfernen.“

„Stattdessen weist Musk (wie auch die neue CEO Linda Yaccarino) immer wieder auf die ‚Community Notes‘ hin, eine von Freiwilligen betriebene Korrekturfunktion, die zwar im Prinzip nützlich sein kann, aber wegen des freiwilligen Ansatzes natürlich nur sehr punktuell und meist erst einige Zeit nach dem Erscheinen problematischer Tweets wirklich helfen kann. Eine flächendeckende und sehr schnell reagierende Moderation höchst problematischer Inhalte kann man von diesem Ansatz selbstverständlich nicht erwarten, und Musks und Yaccarinos Versuch, die eigene Verantwortung mit dem Verweis auf die Community Notes einfach auf unbezahlte Nutzer abzuwälzen, kann man nur als äußerst zynisch beschreiben.“

Mögliche Folgen für X

„Die Radikalisierung der User ist bereits in vollem Gange – nicht zuletzt auch dadurch, dass ‚normale‘ NutzerInnen sowie auch viele PolitikerInnen, JournalistInnen, Medienhäuser, Firmen und andere öffentliche Akteure die Plattform verlassen haben oder zumindest sehr viel weniger aktiv nutzen und dadurch den extremen Stimmen das Feld überlassen. Ebenso ist natürlich bekannt, dass sich das Einkommen aus Anzeigenverkäufen seit der Übernahme durch Musk halbiert hat [10], weil immer weniger Firmen neben radikalisieren Tweets Werbung schalten möchten. Das ist zunächst einmal ein finanzielles Problem für Twitter/X und Musk sowie seine Investoren, weil die Plattform dadurch immer mehr rote Zahlen schreiben wird und auch ihr Weiterverkaufswert nun weit unter die ursprünglichen 44 Milliarden US-Dollar gesunken ist, die Musk gezahlt hatte – angeblich um zwei Drittel oder mehr [11]. Es ist mehr als unwahrscheinlich, dass sich dieser Trend unter Musk und Yaccarino umkehren wird – eher dürfte die Plattform abgewickelt oder zu einem weit niedrigeren Wert weiterverkauft werden, was allerdings wegen Musks öffentlicher Selbstidentifikation als ‚Chief Twit‘ auch noch einige Hürden zu überwinden hätte.“

„Was Aktivitäten auf der Plattform selbst angeht, wird die Radikalisierung sicher weiter fortschreiten, falls nicht grundlegende Änderungen bei der Moderation eingeführt werden. Das als Echokammer zu beschreiben, ist allerdings (wie immer bei dieser Metapher) grundfalsch, denn selbst hier werden weiterhin radikale Meinungen mit sehr verschiedenen Perspektiven aufeinandertreffen – Twitter wird sich also sicher nicht zu einem ideologisch homogenen Netzwerk hin entwickeln, wie es vielleicht bei einigen anderen, kleineren Plattformen besonders im rechtsradikalen Milieu der Fall ist. Selbst diese sind allerdings grundsätzlich nicht einfach vom Rest der Welt hermetisch abgeschottet, sondern beobachten die Aktivitäten ihrer ideologischen Feinde anderswo meist sehr genau und nutzen solche Nischenplattformen dafür, zu planen, wie sie am effektivsten ihre eigenen Inhalte in allgemeinere Plattformen hineintragen können.“

Mögliche Folgen für die Öffentlichkeit

„Die Konzentration der Entscheidungsmacht über wichtige Kommunikationsplattformen wie Twitter (oder auch Facebook) auf eine einzelne Person – wie Elon Musk oder Mark Zuckerberg – ist ein besonders für die ‚tech bros‘ aus Silicon Valley typisches Phänomen, an dem sich auch bei neueren Plattformalternativen wie dem kürzlich von Twitter-Erfinder Jack Dorsey gestarteten Bluesky offenbar nicht notwendigerweise viel ändert. Eines der wenigen Gegenbeispiele ist die föderativ aufgebaute Plattform Mastodon, die aus einem Netzwerk vieler von einzelnen BetreiberInnen ausgerichteter Plattforminstanzen besteht, aber dennoch als Ganzes funktioniert. Das ist allerdings für NutzerInnen, die an eine zentrale Plattform gewöhnt sind, durchaus verwirrend und kann ebenfalls seine Schattenseiten haben: Welche BetreiberInnen sind für die Moderierung welcher möglicherweise problematischen Inhalte verantwortlich, und wer ist bei einem solchen dezentralisierten Netzwerk überhaupt der Ansprechpartner für Regulierungsinstanzen auf nationaler oder EU-Ebene?“

„Insgesamt ist ohnehin wahrscheinlich, dass auch die vor allem durch den Niedergang von Twitter/X angefachte Fragmentierung der Social-Media-Landschaft, mit ihren vielen neuen Plattformalternativen nicht allzu lange währen wird. Soziale Netzwerke forcieren ja per Definition einen Netzwerkeffekt [12], der meist das Netzwerk mit der größten Zahl an Teilnehmenden für andere NutzerInnen am attraktivsten erscheinen lässt. Statt also langfristig viele kleine Netzwerke nebeneinander existieren zu sehen, ist es eher wahrscheinlich, dass sich auch in der neuesten Generation von Plattformen wieder einige wenige etablieren werden, die dann das Gros der NutzerInnen für sich gewinnen werden. Die große Frage ist im Moment noch, welche neuen oder auch noch kommenden Netzwerke das sein werden, und ob eines davon wieder eine so öffentliche, schnelllebige und besonders für den Austausch von Nachrichten, Informationen, und Standpunkten wichtige Plattform wie Twitter sein wird.“

Regulierung von Social-Media-Plattformen

„Es wäre wünschenswert, dass die Entwicklung solcher neuen Marktführer schon früher durch regulierende Eingriffe gelenkt werden könnte, sodass diese Plattformen ihre gesellschaftliche Verantwortung nicht wieder dem Profitmotiv oder den ideologischen Vorlieben ihrer Vorstände hintanstellen. Das ist allerdings nicht unkompliziert, weil einige dieser Plattformen sicher wieder aus dem nicht-EU-Raum kommen und so für Regulierung weniger direkt zugänglich sein werden; zudem sind sich außerdem natürlich die einzelnen EU-Mitgliedsstaaten ebenfalls nicht immer über die richtige Balance zwischen dem Schutz der freien Meinungsäußerung Einzelner und dem Schutz der Gesellschaft vor dem Missbrauch der freien Meinungsäußerung einig.“

Was sollten User jetzt tun?

„Bleiben sollte man auf Twitter/X wohl wirklich nur noch, falls man – wie ich als Medienforscher – daran interessiert ist, den Verfall eines einst für die öffentliche Diskussion und Meinungsbildung durchaus wichtigen Mediums aus der Nähe und in Echtzeit zu beobachten; dafür spricht zumindest aus Forschungssicht noch, dass sich dergleichen wahrscheinlich (und hoffentlich) so schnell nicht noch einmal wiederholen wird.“

„Von solchem eher morbiden Interesse einmal abgesehen, sollte man wohl zumindest die aktive Beteiligung an der Plattform jetzt sehr bald stark herunterfahren oder auch ganz einstellen – viel Wert lässt sich aus der weiteren Teilnahme wirklich nicht mehr gewinnen. Das gilt, wie der Hamas-Überfall auf Israel gerade gezeigt hat, mittlerweile sogar für Twitters vormals stärksten Punkt, die sekundenschnelle Berichterstattung aus aktuellen Krisengebieten – selbst diese wird nun schnell von Spam und Desinformationen überwältigt, und verlässliche Informationen kommen kaum noch durch. Den eigenen Account auf Twitter sollte man dabei vielleicht durchaus noch beibehalten (aber zum Beispiel auf privat schalten): einerseits in der entfernten Hoffnung, dass sich die Plattform mittelfristig nach dem Ausscheiden von Musk und Team doch noch einmal berappelt, aber andererseits vor allem, um der Übernahme des eigenen Accountnamens durch Nachahmer und Desinformierer vorzubeugen – löschte ich meinen Account, so könnte jemand anders einen neuen Account unter demselben Namen aufsetzen und sich als mich ausgeben.“

„Einen wirklichen Ersatz für die früher von Twitter erfüllten Funktionen gibt es dabei aber leider nicht – daher muss man leider dazu raten, für den Moment neue Accounts in einer Reihe von sich als Alternativen zu profilieren versuchenden Plattformen aufzusetzen (also beispielsweise Mastodon, Bluesky, sogar Threads) und dort neue Communities für die eigenen Interessen und Inhalte zu finden. Hier gibt es sogar einige nützliche Tools, um die Kontakte aus Twitter auf diesen neuen Plattformen wiederzufinden, wie den Fedifinder, der alle drei Plattformen unterstützt [13]. Besonders JournalistInnen und Medienhäuser sollten hier mit gutem Beispiel vorangehen, um so auch den NutzerInnen die Einstellung ihrer Twitteraktivitäten zu ermöglichen, die sich weiterhin auf Twitter als Nachrichtenquelle verlassen. Je schneller diesen verbleibenden NutzerInnen gute Informationsalternativen auf anderen sozialen Medien zur Verfügung stehen, desto eher können sie sich aus dem zunehmend toxischen Umfeld auf Twitter/X zurückziehen.“

Prof. Dr. Curd Knüpfer

Juniorprofessor für Politikwissenschaft, Freie Universität Berlin

Zu den Vorwürfen gegen X

Auf die Frage, inwiefern es mehr als nur ein Gefühl ist, dass auf Twitter Desinformation zunimmt und die Debattenkultur verroht:
„Momentan ist das eher ein gut begründbares Gefühl. Zum Teil liegen Daten darüber vor, wie viele Accounts auf einen Schwung auf Twitter-Klonen wie Mastodon, Post, Threads oder Bluesky angemeldet wurden. Das korrespondiert häufig mit einschlägigen Entscheidungen oder Änderungen auf der Plattform. Zuletzt schien es einen Exodus deutscher Nutzer:innen zu geben, der sich wohl auf Musks recht offenen Antisemitismus und sein Teilen von AfD-Inhalten zurückführen lassen kann. Aber das ist eher anekdotisch.“

„Das Paradoxon ist ja, dass wir mit nachweislich weniger Qualitätssicherung bei Twitter auch zeitgleich deutlich weniger Zugang zu Daten erhalten. Das waren zwei bewusste Entscheidungen, die Elon Musk nach seiner Übernahme traf. Zeitgleich nimmt also wohl die Qualität der Inhalte auf der Seite ab und es wird uns Forschenden schwieriger gemacht, quantifizierbare Angaben darüber zu machen, wie sich das auswirkt.“

Mögliche Folgen für X

„Die entscheidende Frage für Twitter als Plattform wird nicht unbedingt sein, wen oder was man dort künftig findet, sondern eher wen oder was nicht. Unwahre oder radikale Inhalte findet man auch in vielen anderen Teilen des Internets: Das wird also kein Alleinstellungsmerkmal von ‚X‘ sein. Was Twitter bisher besonders machte, war die Vielzahl an verifizierten, seriösen Akteuren und Institutionen, die die Plattform für Output nutzten, der sich durch gewisse Qualitätsstandards auszeichnete. Das ist nun vorbei, weil sich nur noch schwer nachvollziehen lässt, mit wem oder was man es bei welchem Account und Post wirklich zu tun hat.“

„Vor allem wird dies drei Akteursgruppen und deren Inhalte betreffen: Erstens offizielle Quellen von verifizierten Accounts und Institutionen, diese werden weiter abnehmen. Zweitens fallen seriöse journalistische Inhalte, für die es zuvor noch gewisse Anreizstrukturen auf der Plattform gab, zunehmend weg. Drittens wird man dort deutlich seltener Stimmen von Minderheiten und von als weiblich gelesenen Personen finden, die überproportional unmoderiertem Hass und koordinierten Angriffen ausgesetzt sind.“

Mögliche Folgen für die Öffentlichkeit

„Zunächst einmal müssen momentan viele einzelne Organisationen, Institutionen, und Individuen die eigene Informationsstrategie neu überdenken. Gerade auch öffentliche Einrichtungen haben sich viel Arbeit von Plattformen abnehmen lassen, indem sie zum Beispiel statt einer Webseite nur noch eine Facebook- oder Twitter-Seite bespeist und somit auch mit Inhalt gefüllt haben.“

„Ferner ist die Zeit der ‚sehr großen Plattformen‘, die den Anspruch haben, die globale Gesamtöffentlichkeit zu bedienen, möglicherweise fürs Erste vorbei. Es wird nun wohl erstmal ideologisch und regional geprägte Fragmentierungsprozesse geben, bei denen unterschiedliche Akteure zu ihren bevorzugten Mikro-Öffentlichkeiten auf verschiedenen Plattformen gravitieren.“

Regulierung von Social-Media-Plattformen

„Was hierbei die Rolle des Staats betrifft: Man vergisst das möglicherweise zu leicht, aber es gibt einen Grund, warum demokratische Systeme in der Regel auch öffentliche Medienkanäle unterhalten. Diese sollen dem Zweck dienen, öffentliche Debatten und mediale Berichterstattung nicht den Logiken und Sachzwängen des Marktes oder einzelner Privatinteressen zu unterwerfen. Aus dem 20. Jahrhundert kennen wir dies vorrangig in Bezug auf die jeweils nationalen Rundfunksysteme. Es gibt verschiedene Modelle dafür, wie solche Mediensysteme aus öffentlichen Geldern (mit)finanziert werden. Und es ist zumindest theoretisch absolut denkbar, dass sowas auch auf einer transnationalen – zum Beispiel europäischen – Ebene für Internetplattformen entstehen könnte.“

Was sollten User jetzt tun?

„Ich denke nicht, dass sich die Lage bei ‚X‘ auf absehbare Zeit verbessern wird. Der Schaden ist zu groß und als Gewerbe wird die Plattform noch gewaltige Schwierigkeiten bekommen, ihre Schulden zu begleichen und mögliche Strafzahlungen zu leisten.“

„Ob man bleibt oder geht, muss jede/r selbst beantworten und das hängt natürlich auch von den eigenen Interessen ab. Der Wert sozialer Medien liegt in den Netzwerken, denen man sich dort anschließen kann. Ein Prozess der Fragmentierung wird zur Folge haben, dass man sich in kleineren, fokussierten Netzwerken wiederfindet. Die eigene Reichweite wird dadurch abnehmen. Dafür wird der Input, den man erhält, möglicherweise wieder gehaltvoller.“

Prof. Dr. Matthias Kettemann

Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich

„Es gibt Plattformen, die kontinuierlich in bessere Inhalteregulierung, in mehr Transparenz, in raschere Löschung von illegalen Inhalten und in effektiveres Vorgehen gegen Desinformation investieren. Sie bemühen sich, sich an nationale und europäische Regeln zu halten. Dazu gehören etwa YouTube, Facebook und Instagram. Andere Plattformen tun dies erst seit relativer kurzer Zeit und sind etwas zurückhaltender dabei, zu kooperieren, wie etwa TikTok. Und dann gibt es Plattformen wie X (Twitter). Musk hat bewusst ein gut funktionierendes System zur Bekämpfung von Desinformation und illegalen und gewaltverherrlichenden Inhalten zerstört, indem er die entsprechenden Teams entlassen hat und sich aus Kooperationsnetzwerken wie dem EU-Desinformationskodex zurückgezogen hat. Das war eine bewusste Entscheidung, mit der Musk und X (Twitter) bewusst gegen europäisches Recht und globale Normen verstoßen, ohne dass ein – selbst ökonomischer – Mehrwert sichtbar ist.“

Derzeitige Regulierung von X

„Momentan muss Twitter sich an verschiedene Gesetze halten. Das sind in Deutschland etwa das Telemediengesetz (TMG), der Medienstaatsvertrag (MStV), der Jugendmedienstaatsvertrag (JMStV), das Netzwerkdurchsetzungsgesetz (NetzDG), die sogenannte TCO-Verordnung (Terrorist Content Online-Verordnung; Anm. d. Red.) oder auch die Datenschutz-Grundverordnung (DSGVO). Für die Moderation von Inhalten verlangt etwa das NetzDG, dass Inhalte, die gegen bestimmte Normen des Strafgesetzbuches (StGB) verstoßen, nach Meldung durch Nutzende gelöscht werden müssen – dies je nach Schwere der Rechtsverletzung binnen 48 Stunden oder zumindest einer Woche. Der JMStV legt auch fest, welchen Inhalten Kinder und Jugendliche nicht ausgesetzt werden dürfen. Dass Twitter nun etwa Enthauptungsvideos nicht effektiv löscht, verstößt auch dagegen.“

„Für Desinformationen fehlt es dagegen bislang an einer klaren rechtlichen Handhabe, da sie nicht per se strafbar sind. Hier gilt bislang nur eine freiwillige Selbstverpflichtung der Plattformen durch den von der EU-Kommission initiierten ‚Code of Practice on Disinformation‘, den Twitter/X jedoch verlassen hat. Dieser Kodex wurde allerdings durch den Digital Services Act (DSA) für die Unterzeichner-Plattformen verpflichtend gemacht.“

Regulierung durch den Digital Services Act

„Auf nationaler Ebene wird der Digital Services Act zunächst dafür sorgen, dass ein Teil der genannten Gesetze aufgehoben wird, nämlich das TMG und das NetzDG, weil wir nun eine EU-weit einheitliche Regelung bekommen. Darüber hinaus müssen Onlineplattformen eine Vielzahl von Sorgfaltspflichten erfüllen, etwa umfangreiche Beschwerdeverfahren für Nutzende ermöglichen. Ein weiteres Kernstück sind Transparenzberichte, in denen dargestellt wird, wie mit Beschwerden umgegangen worden ist. Sehr große Online-Plattformen, zu denen Twitter/X auch gehört, müssen die von ihnen ausgehenden sogenannten systemischen Risiken bewerten und mindern. Als solches Risiko ist unter anderem auch Desinformation benannt, sodass sehr große Plattformen seit Ende August (Tag des Inkrafttretens des DSA für sehr große Online-Plattformen) Desinformation als Risiko bewerten und vermindern müssen.“

Bedarf an zusätzlicher Regulierung

„Das ist zum jetzigen Zeitpunkt schwierig abzusehen, aber der öffentlichkeitswirksame ‚Austausch‘ zwischen Twitter/X-Eigentümer Elon Musk und dem zuständigen EU-Kommissar Thierry Breton zu Desinformation auf Twitter/X zum aktuellen Angriff der Hamas in Israel zeigt, dass die EU-Kommission die Anwendung des DSA vorantreibt. Die Wirksamkeit wird man laufend beobachten müssen, weil die Regulierung von Desinformation bedeutend schwieriger ist als eine Verpflichtung der Plattformen, evident illegale Inhalte zu löschen, weil diese Inhalte eben nicht verboten, aber doch gesamtgesellschaftlich schädlich sind (‚lawful but awful‘).“

„Der Staat darf in den meisten Fällen nicht rechtlich in die Inhalte von Äußerungen eingreifen. Dennoch hat er die Verantwortung, die Grundvoraussetzungen für eine freie Kommunikationsverfassung sicherzustellen. Er muss dafür sorgen, dass jeder die Möglichkeit hat, aktiv und passiv am Kommunikationsprozess teilzunehmen. Das Ziel ist es, die Bedingungen zu schaffen, die eine öffentliche Kommunikation und den Meinungsaustausch ermöglichen. Dabei liegt der Schwerpunkt nicht auf einzelnen Äußerungen, sondern auf den Bedingungen, die den Kommunikationsprozess insgesamt ermöglichen. Gesetzliche Maßnahmen sind dann möglich, wenn der Gesetzgeber eine Bedrohung dieser Bedingungen sieht, wobei der Gesetzgeber einen gewissen Spielraum bei der Bewertung hat.“

„Ich sehe nicht, dass Twitter – so schlecht es auch verwaltet wird und so viele Rechtsverletzungen aktuell dort begangen werden – die Vielfalt der Meinungsbildung in Deutschland gefährdet. Neue Gesetze sind hier nicht nötig. Wichtiger ist es, die zukünftige Rolle von KI beziehungsweise generativer KI in der künstlichen Verstärkung einzelner Kommunikationsakteure im Auge zu behalten.“

„Insgesamt wird die Resilienz der Kommunikationsordnung nicht nur von der Durchsetzung des DSA abhängen, sondern auch von anderen Rechtsakten auf EU-Ebene, die weitere Teilbereiche der Plattformtätigkeit wie Marktmacht, ‚Datenschätze‘ oder KI im Blick haben. Angesichts der Vielzahl von Gesetzesvorschlägen der Kommission scheint es mir im Moment eher ratsam, zu schauen, wie die einzelnen ‚Zahnräder‘ in den nächsten Jahren ineinandergreifen und dann konkrete Anpassungen vorzunehmen, statt immer weitere Gesetzesvorschläge zu präsentieren.“

Prof. Dr. Sonja Utz

Leiterin der Arbeitsgruppe Alltagsmedien, Leibniz-Institut für Wissensmedien (IWM), Tübingen

Zu den Vorwürfen gegen X

„Es gibt erste Arbeiten, die zeigen, dass Hate Speech, Fake Accounts und Desinformation zugenommen haben, seitdem Elon Musk Twitter übernommen hat und weniger Wert auf Content-Moderation gelegt wird [14]. Ein Problem ist, dass Elon Musk selbst Accounts, die Falschinformationen verbreiten, empfiehlt, wie jüngst zum Überfall der Hamas auf Israel. Den Post hat er zwar wieder gelöscht, er wurde aber bereits von 11 Millionen Usern gesehen [15].“

„Dazu kommt, dass viele gemäßigtere User Twitter verlassen oder weniger aktiv sind, zum Beispiel Wissenschaftler*innen [16] oder Klimaaktivist*innen [17]. Beide Entwicklungen – weniger Moderation und Abwanderung gemäßigter Nutzer*innen – führen zu mehr radikalen Inhalten.“

„Auf der Webseite ‚Twitter is Going Great‘ [18] findet sich ein genereller Überblick über die Entwicklung bis Mai.“

Mögliche Folgen für X

„Da man selbst aussucht, wem man folgt, hat man immer noch zu einem großen Anteil in der Hand, in welcher Blase man sich bewegt (auch wenn der ‚for you‘-Feed auch Beiträge von Accounts, denen man nicht folgt, anzeigt und der Algorithmus Accounts, denen man folgen könnte, vorschlägt). Für viele gemäßigte User*innen verschlechtert sich die Qualität des eigenen Feeds damit vor allem durch die Abwanderung von Personen. Da X aber weniger in Content-Moderation investiert, ist es für radikale Personen einfacher, sich zu vernetzen.“

Mögliche Folgen für die Öffentlichkeit

„Bei akuten Krisen wird es schwieriger, wahre Informationen von Falschinformationen zu unterscheiden; auch, da KI-generierte Bilder immer besser werden. Man muss also stärker auf die Glaubwürdigkeit von Beiträgen achten, auch im eigenen Netzwerk.“

„In den Medien werden meist die Radikalisierung und Desinformation als Hauptprobleme genannt. Ebenso gravierend ist für die aktiven User*innen aber der Verlust an sozialem Kapital; Ressourcen aus dem eigenen Netzwerk. Twitter war eine ideale Informationsquelle; das Überfliegen von Tweets erlaubt es, sogenannte ambient awareness aufzubauen, Wissen darüber, wer im eigenen Feld was macht oder was gerade passiert. Durch die Abwanderung auf andere Plattformen geht dieses Wissen verloren. Personen weichen auf unterschiedliche Plattformen aus (Mastodon, LinkedIn, Threads, Bluesky…). Manche davon sind in der EU offiziell nicht zugelassen, bei anderen führt das Fehlen von Algorithmen dazu, dass man weniger Nachrichten von Personen aus anderen Zeitzonen sieht.“

Regulierung von Social-Media-Plattformen

„Wenn es möglich wäre, durch Regulierung zu verhindern, dass eine einzelne Person eine etablierte Plattform kauft und zugrunde richtet, wäre das sehr zu begrüßen.“

Was sollten User jetzt tun?

„Man sollte Posts kritisch prüfen und im ‚for you‘-Feed Accounts blockieren oder zumindest Posts als ‚not interested in‘ markieren, die Hass, radikale Botschaften oder Desinformation verbreiten. Mit dem Verlassen von X würde man ein Zeichen setzen, dass man mit den Entwicklungen (weniger Content-Moderation; Einschränkungen wie Abschaffung der Forscher-API, begrenzte Anzahl von Tweets und eingeschränkte Funktionen, wenn man kein Premium-Abo abschließen möchte), nicht einverstanden ist. Gegen das Verlassen spricht, dass die meisten aktiven User*innen auf Twitter die größte Community haben und sich derzeit noch nicht eine Plattform als Alternative herauskristallisiert hat. Je nach Feld und nationaler/internationaler Ausrichtung muss man dann schauen, wo sich der Großteil der eigenen Community hinbewegen wird.“

Prof. Dr. Andreas Jungherr

Inhaber des Lehrstuhls für Politikwissenschaft, insbesondere Steuerung innovativer und komplexer technischer Systeme, Otto-Friedrich-Universität Bamberg

Zu den Vorwürfen gegen X

Auf die Frage, inwiefern es mehr als nur ein Gefühl ist, dass auf Twitter Desinformation zunimmt und die Debattenkultur verroht:
„Aktuell sind mir keine verlässlichen und systematischen wissenschaftlichen Studien zu diesen Fragen bekannt. Dies liegt unter anderem daran, dass sich entsprechende Vermutungen nur sehr schwer konkretisieren und in Untersuchungsdesigns übersetzen lassen. Allerdings gibt es einige illustrative Arbeiten von Think Tanks und anderen Akteuren im wissenschaftlichen Vorfeld, die zu dem Ergebnis kommen, dass in bestimmten Kontexten die Zahl von diskriminierenden oder herabsetzenden Begriffen nach Xs Übernahme durch Elon Musk gestiegen seien oder auch, dass unzuverlässige Quellen größere Popularität haben.“

„Grundsätzlich gilt es bei der Einschätzung dieser Frage aber vorsichtig zu sein. Vor allem, da wir keine verlässlichen Informationen über die Ursachen haben. Häufig werden vermutete negative Entwicklungen direkt Elon Musk, seiner Persönlichkeit oder seinen vermeintlichen politischen Überzeugungen zugeschrieben. Doch hiervor kann man nur warnen. Psychologische und politische Erklärungen sind im aktuellen Klima sehr verlockend, aber bleiben letztlich unbefriedigend.“

„Die Moderation eines digitalen Forums wie X auf dem Menschen politische Konflikte in internationalen Kontexten austragen und kommentieren, sich über tagesaktuelle Krisen und Streifragen austauschen und sich Akteure mit unterschiedlichen Interessen tummeln, wird letztlich immer Anlass zur Kritik geben. Einen alternativen Ansatz, entsprechenden Kontroversen aus dem Weg zu gehen, bietet Metas Dienst Threads. Hier wird gezielt versucht, den Austausch zwischen Nutzern über Nachrichten oder politische Themen zu Gunsten unkontroverser Themen zurückzustellen. Metas Ziel dabei ist, einen populären Ort des Austausches zwischen Nutzerinnen und Nutzern zu schaffen, ohne das kritische Auge des Regulators auf sich zu ziehen oder in politische Konflikte gezogen zu werden. Das mag zu einem konfliktfreieren Kommunikationsraum führen, verdrängt aber natürlich gleichzeitig auch politischen Austausch und Kontroversen aus der Öffentlichkeit. Demokratietheoretisch ist dieses Szenario also mindestens ein ebenso großes Problem, wie von Konflikt und Kontroversen zu stark geprägte Kommunikationsräume.“

„Außerdem experimentiert X recht erfolgreich mit neuen Formen der Kontextualisierung von Informationen. Ein gutes Beispiel hierfür ist die Funktion Community Notes, in der registrierte Nutzerinnen und Nutzer Kommentare zu Tweets erstellen können, die darin geäußerte Informationen und Meinungen kontextualisieren oder kritisieren. Diese Anmerkungen stehen dann wiederum zur Diskussion und Abstimmung. Dies ist eine interessante, dezentrale Art, Widerspruch sichtbar zu machen und öffentlich zu diskutieren.“

Mögliche Folgen für X

Auf die Frage, ob X droht, sich zu radikalisieren:
„Aktuell ist mein Gefühl eher, dass alternative Dienste wie Mastodon oder Bluesky homogenere Kommunikationsumgebungen bieten als X. Jedenfalls geht es mir in meiner Nutzung so.“

Regulierung von Social-Media-Plattformen

„Natürlich müssen Informationsumgebungen wie X reguliert werden. Gleichzeitig muss diese Regulierung faktenbasiert stattfinden und darf nicht den Anschein erwecken, dass Staaten legitime Kritik in digitalen Kommunikationsräumen unterdrücken. Klar wünscht man sich, dass sich die Eigentümer wichtiger kommunikativer Strukturen ihrer Verantwortung bewusst sind und nicht unnötige Kontroversen schüren, die natürlich auch die Legitimität der von ihnen betriebenen Strukturen schädigen. Gleichzeitig sieht man aber auch, dass digitale Kommunikation zu Konzentration auf wenige Anbieter tendiert. Wir sehen in unterschiedlichen Bereichen einen großen Marktführer begleitet von einigen komplementären Anbietern. Diese Muster sind allein durch Regulierung wahrscheinlich nicht aufzulösen.“

Was sollten User jetzt tun?

„Bei aller gerechtfertigten Kritik an der Person Elon Musk, stellt sich die Frage, ob man durch das Verlassen von X nicht mehr aufgibt, als es auf den ersten Blick scheint. X ist noch immer ein digitaler Kommunikationsraum, der öffentlichen Stellen, Journalistinnen und Journalisten und Wissenschaftlerinnen und Wissenschaftlern die Möglichkeit gibt, Informationen breit zu streuen und Sichtbarkeit zu erlangen. Gleichzeitig werden hier auch Stimmen anderer sichtbar und zugänglich. Andere vergleichbare Dienste können dies bisher nicht bieten. Nicht zuletzt, da es unterschiedliche Gruppen auf unterschiedliche Dienste zu ziehen scheint.“

Prof. Dr. Christian Hoffmann

Professor für Kommunikationsmanagement, Institut für Medien- und Kommunikationswissenschaft, Universität Leipzig

Zu den Vorwürfen gegen X

„Wir verfügen über Kenntnisse zu Änderungen der Plattform und ihrer Verwaltung, die eine Auswirkung auf die Verbreitung von Desinformation und Hatespeech haben könnten. Elon Musk hat das bisherige Verifikationssystem vertrauenswürdiger Profile abgeschafft und durch eine Art Abonnement-System ersetzt. Der blaue Haken, der früher durch die Plattform ausgewählte, verifizierte Accounts kennzeichnete, zeigt heute nur noch, dass ein Nutzer ‚X Premium‘ abonniert hat. Das macht es für Nutzer schwieriger, vertrauenswürdige von nicht vertrauenswürdigen Profilen zu unterscheiden. Elon Musk hat zudem einen großen Teil des Teams entlassen, das für die Inhaltemoderation auf der Plattform zuständig war. Ganz gezielt wurde auch die Politik der Inhaltemoderation liberalisiert – Inhalte, die vor Musk noch als Hatespeech entfernt worden wären, werden heute bewusst nicht mehr entfernt. Eine weitere Neuerung ist die Monetarisierung von Inhalten: ‚X Premium‘-Abonnenten können nun etwas dazuverdienen, wenn ihre Tweets oder Posts eine hohe Resonanz erzielen – unabhängig von der Qualität der Tweets. Zuletzt lässt sich beobachten, dass Elon Musk selbst häufig mit Accounts interagiert, die zum Teil irreführende Informationen veröffentlichen, und diesen dadurch Sichtbarkeit auf der Plattform gibt.“

„All dies macht durchaus wahrscheinlich, dass die Unterscheidung von vertrauenswürdigen und nicht vertrauenswürdigen Inhalten auf Twitter/X schwieriger geworden ist, dass das Diskursklima rauer geworden ist, und dass es einfacher geworden ist, falsche oder irreführende Inhalte auf der Plattform zu verbreiten.“

„Davon zu unterscheiden ist aber die Frage, ob es tatsächlich empirische Evidenz für die Zunahme von Hatespeech oder Desinformation auf der Plattform gibt. Im Falle der Hatespeech gibt es Daten, die eine kurze, heftige, aber vorübergehende Zunahme von Hatespeech auf Twitter unmittelbar nach der Übernahme durch Musk zeigten. Es ist nicht klar, inwiefern es tatsächlich eine dauerhafte Zunahme gab oder gibt. Dazu ist zu sagen, dass bei Studien zu Hatespeech natürlich entscheidend ist, wie diese gemessen wird. Ein Beispiel: Twitter verbot früher, Transsexuelle mit ihrem biologischen Geschlecht anzusprechen (das so genannte Misgendering). Das ist heute auf ‚X‘ nicht mehr verboten. Wenn dies also als Hatespeech kategorisiert wird, führt die liberalere Sprachpolitik Musks natürlich in Messungen zu einer Zunahme von Hatespeech.“

„Ähnlich ist es im Falle der Desinformation, wo keineswegs restlos klar ist, wie diese zu messen ist. Häufig wird Desinformation auf Ebene einer Domain, also einer Website, gemessen. Gewisse Websites werden als ‚Fake-News-Seiten‘ qualifiziert. Werden diese häufig geteilt, ist das gemessene Volumen der Desinformation hoch. Allerdings kommt hier eine politische Unwucht ins Spiel. Viele der von Faktencheck-Organisationen als ‚Fake-News-Seite‘ qualifizierten Websites sind auf der politischen Rechten verortet. Deren Inhalte wurden auf Twitter in der Vergangenheit häufiger entfernt. Unter Musk ist dies nun weniger der Fall. Wenn heute also Inhalte solcher Seiten häufiger geteilt werden, ist nicht klar, ob das vor allem eine Frage der Desinformation ist, oder ob es an einer stärkeren oder weniger gebremsten Nutzung der Plattform durch politisch auf der Rechten verorteten Nutzern liegt.“

„Mit Blick auf den derzeitigen Konflikt in Israel und Gaza ist es noch zu früh, eine belastbare Aussage treffen zu können. Subjektiv scheint bei manchen der Eindruck zu herrschen, es gäbe derzeit ungewöhnlich viel Desinformation auf Twitter/X. Jedoch liegen dazu noch keine systematischen Erhebungen vor. Und auch der Maßstab für ein solches Urteil ist nicht klar: Sind es frühere Krisen, wie etwa der Beginn des Ukraine-Kriegs? Sind es andere Plattformen, wie Facebook oder Telegram? Mir scheint hier derzeit die Spekulation zu überwiegen.“

Mögliche Folgen für X

„Twitter hat immer noch über 300 Millionen Nutzer, jedoch mit sinkender Tendenz. Es ist in der Tat eine wichtige Frage, welche Nutzende sich von der Plattform verabschieden, denn die Erstellung von Inhalten ist hier sehr ungleich verteilt. Die Mehrheit der Nutzer befasst sich auf der Plattform nicht mit Politik. Aber selbst in der Minderheit jener, die Twitter für politische Zwecke nutzen, ist es wiederum eine kleine Minderheit, die einen Großteil der Tweets produziert. In den USA zeigte 2019 eine Analyse, dass 10 Prozent der Nutzer für 80 Prozent der Tweets verantwortlich war. Die kleine Minderheit der sehr aktiven Twitter-Nutzer war politisch besonders interessiert, höher gebildet, und mehrheitlich politisch links verortet. Dies bedeutet, dass ein Rückzug der besonders aktiven Nutzer den politischen Diskurs auf der Plattform durchaus verändern kann. Der Twitter-Rückzug scheint vor allem auf der politischen Linken verortet zu sein. Dies könnte wiederum den Tenor politischer Debatten auf Twitter verändern. Das Wort ‚Echokammer‘ dürfte aber der verbleibenden Vielfalt auf der Plattform kaum gerecht werden.“

Mögliche Folgen für die Öffentlichkeit

„Der Versuch, Mastodon als Alternative zu Twitter zu positionieren, scheint nicht von Erfolg gekrönt zu sein. Dies mag daran liegen, dass zu viele Nutzer doch zögern, Twitter zu verlassen. Soziale Netzwerke sind schwierig von einer Plattform auf die andere zu übertragen. Es mag aber auch an der Qualität der Plattform, ihren Funktionalitäten und ihrer Nutzerfreundlichkeit liegen. Ich würde die These aufstellen, dass die Flucht von Twitter/X stark politisch motiviert ist, und daher politisch besonders engagierte und interessierte Nutzende, vermutlich eher auf der politischen Linken verortet, nun aktiv eine Alternative suchen. Die spannende Frage wird sein: Sind diese Personen kulturell so einflussreich, dass auch die weniger politischen und die weniger motivierten Nutzer ihnen folgen? Im Falle von Mastodon lautet die Antwort offenbar ‚nein‘. Das kann sich aber ändern – einerseits, wenn die Fluchtbewegung größer ist, andererseits wenn die neue Plattform mindestens so attraktiv und nutzerfreundlich ist, wie die bisherige.“

„Ich würde aber auch vor einer Romantisierung von Twitter warnen. Ja, dort gab es einen lebendigen Austausch zwischen Vertretern der medialen, politischen, wissenschaftlichen und zum Teil ökonomischen Elite. Das ist und war vor allem für Journalisten sehr attraktiv. Aber Twitter hat stets eher einen Ausschnitt aus einem Elitendiskurs abgebildet. Es war nie ein Abbild der Bevölkerung oder der öffentlichen Meinung. Es lässt sich auch argumentieren, dass der mediale Diskurs über Jahre zu stark von dieser Plattform geprägt wurde. Würde es also dem öffentlichen Diskurs oder gar unserer Demokratie schaden, wenn Twitter von heute auf morgen verschwände? Eher nein. Es gibt genug andere Social-Media-Plattformen, auf denen sich der digitale öffentliche Diskurs entfalten kann.“

Prof. Dr. Edda Humprecht

Professorin für Digitalisierung und Öffenltichkeit, Institut für Kommunikationswissenschaft , Friedrich-Schiller-Universität Jena

Zu den Vorwürfen gegen X

Auf die Frage, inwiefern es mehr als nur ein Gefühl ist, dass auf Twitter Desinformation zunimmt und die Debattenkultur verroht:
„Es gibt bislang kaum Forschung, die diese Aspekte systematisch vor und nach Musks Übernahme von Twitter/X vergleicht. Allerdings zeigt die Forschung, dass Desinformation auf Twitter/X nach wie vor ein Problem ist und manipulative Inhalte, auch wenn sie als solche gemeldet wurden, lange auf der Plattform verbleiben. Seit Musk das ‚Trust and Safety Team‘ abgeschafft hat, welches für die Inhaltsmoderation zuständig war, wird zudem weniger gegen Desinformation und Hassrede unternommen. Gleichzeitig haben viele Wissenschaftler:innen und andere Expert:innen die Plattformen verlassen, unter anderem als Reaktion auf Aussagen von Musk und die Debattenkultur. Es gibt also weniger Personen, die Desinformation begegnen und richtigstellen können.“

Mögliche Folgen für X

„Twitter steht unter Druck, auf diese Vorwürfe zu reagieren und Maßnahmen zu ergreifen. Die Abwanderung prominenter und offizieller Nutzender kann die Glaubwürdigkeit der Plattform untergraben und weitere Nutzende zum Verlassen bewegen. Letztlich leidet Twitter auch ökonomisch unter dieser Entwicklung, denn Werbetreibende verlassen die Plattform als Reaktion auf Musks Unternehmenspolitik (unter anderem wird Werbung nicht mehr gekennzeichnet). Für dieses Jahr wurde ein Rückgang der Werbeeinnahmen um 60 Prozent vermeldet. Eine Radikalisierung droht insbesondere, wenn sich vor allem die gemäßigten Stimmen von der Plattform zurückziehen. Vermutlich werden sich aber auch andere einflussreiche Personen auf andere Plattformen verlegen, wenn sie auf X kein großes Publikum mehr erreichen können. Dann droht der Plattformen die Bedeutungslosigkeit.“

Mögliche Folgen für die Öffentlichkeit

„Die verstärkte Verbreitung von Desinformation rund um Israel und die Hamas kann zu einer verzerrten Wahrnehmung des Konflikts führen. Zudem wird der Informationsaustausch behindert, zum Beispiel zwischen Journalist:innen und Quellen vor Ort. Eine stärkere Regulierung von Twitter und anderen Plattformen wäre daher sinnvoll, ist aber komplex. Der Digital Services Act und der Digital Markets Act geben beispielsweise Ziele vor und die Plattformen müssen Maßnahmen entwickeln, um diese zu erreichen. Facebook hat beispielsweise das ‚Oversight Board‘ entwickelt, einen Expert:innenrat. Es braucht also eine Bereitschaft der jeweiligen Plattform, gegen Hassrede und Desinformation vorzugehen und diese auf allen Ebenen zu bekämpfen. Eine solche Bereitschaft ist bei X momentan nicht zu erkennen.“

Was sollten User jetzt tun?

„Angesichts der aktuellen Situation sollten Informationen von der Plattform mit Vorsicht genutzt und sorgfältig geprüft werden. Das Verlassen der Plattform kann ein Signal setzen, dass Desinformation und eine toxische Debattenkultur nicht akzeptiert werden. Entscheidet man sich für den Verbleib, sollte man gemäßigtere und informierte Stimmen fördern, indem man zum Beispiel Inhalte von professionellen Nachrichtenmedien teilt.“

Prof. Dr. Christoph Busch

Professor für Europäisches Wirtschaftsrecht und Direktor des European Legal Studies Institute, Universität Osnabrück

Derzeitige Regulierung von X

„Bislang gibt es kein allgemeines Gesetz gegen ‚Fake News‘. Die Verbreitung von Falschmeldungen in sozialen Netzwerken ist grundsätzlich nicht strafbar, wenn sie nicht bereits aus anderen Gründen einen Straftatbestand erfüllt – zum Beispiel üble Nachrede, Verleumdung oder Volksverhetzung. Unterhalb der Strafbarkeitsschwelle überlässt der Gesetzgeber die Bekämpfung von Desinformation bislang weitgehend den Plattformen selbst.“

„Wenn Plattformen Inhalte löschen, die von Nutzern hochgeladen wurden, muss das Grundrecht auf Meinungsfreiheit der betroffenen Nutzer beachtet werden. Dies gilt allerdings nicht für bewusst verbreitete ‚Fake News‘, da bewusst falsche Tatsachenbehauptungen nicht von der Meinungsfreiheit geschützt sind. Das Problem ist, dass es für die Plattformen oft nicht leicht ist, festzustellen, ob es sich um eine bewusst verbreitete Falschmeldung handelt.“

„Auch das im Jahr 2017 in Kraft getretene Netzwerkdurchsetzungsgesetz (NetzDG) ist bislang kein besonders wirksames Instrument zur Bekämpfung von Desinformationskampagnen. Das NetzDG verpflichtet Plattformen wie Twitter zwar, bestimmte rechtswidrige Inhalte innerhalb kurzer Fristen zu löschen. Erfasst werden aber nur ganz bestimmte Straftatbestände – unter anderem öffentliche Aufforderung zu Straftaten, Volksverhetzung und Verleumdung. Die Verbreitung von Falschnachrichten über die aktuelle Situation in Gaza auf X (früher Twitter) dürfte davon in den meisten Fällen nicht erfasst sein.“

Regulierung durch den Digital Services Act

„Bei den Themen Moderation von Inhalten und Desinformation bringt der Digital Services Act (DSA) drei wichtige Neuerungen: Erstens mehr Transparenz, zweitens ein europaweit einheitliches Meldeverfahren für rechtswidrige Inhalte und drittens – für sehr große Plattformen wie Twitter und Facebook – die Verpflichtung, Maßnahmen gegen bestimmte ‚systemische Risiken‘ zu ergreifen. Zu diesen Risiken gehört auch die Verbreitung von rechtswidrigen Inhalten und Desinformation.“

„Erstens verpflichtet der DSA die Plattformen zu mehr Transparenz. Plattformen wie X (früher Twitter) sind künftig dazu verpflichtet, in ihren Nutzungsbedingungen darüber zu informieren, nach welchen Grundsätzen sie Inhalte von Nutzern moderieren oder Accounts sperren. Außerdem müssen Sie regelmäßig in Transparenzberichten über die Moderation von Inhalten informieren.“

„Zweitens müssen Plattformen wie Facebook und Twitter ein Melde- und Abhilfeverfahren einrichten, bei dem Nutzer potenziell illegale Inhalte melden können, die dann überprüft und entfernt werden, wenn sie sich als illegal erweisen. Der DSA legt dafür erstmals europaweit einheitliche Regeln fest.“

„Drittens verpflichtet der DSA die Anbieter sehr großer Online-Plattformen – mit mehr als 45 Millionen aktiven Nutzern innerhalb der EU – ein proaktives Risikomanagement zu betreiben. Sie müssen angemessene, verhältnismäßige und wirksame Maßnahmen gegen ‚systemische Risiken‘ ergreifen, die mit dem Betrieb der Plattform verbunden sind. Dabei geht es unter anderem um die Verbreitung von rechtswidrigen Inhalten sowie Risiken für die öffentliche Sicherheit und den gesellschaftlichen Diskurs. Konkret heißt das, dass die Plattformen auch angemessene, verhältnismäßige und wirksame Maßnahmen gegen die Verbreitung von Desinformation ergreifen müssen.“

Bedarf an zusätzlicher Regulierung

„Die aktuelle Situation ist ein erster Test für den Digital Services Act (DSA). Es wird sich zeigen, ob sich der DSA im Ernstfall bewährt. Nach meiner Einschätzung enthält der DSA ein sinnvolles Instrumentarium zur Bekämpfung von rechtswidrigen Inhalten und Desinformation in der ‚Plattformgesellschaft‘. Entscheidend ist, dass die Europäische Kommission von ihren neuen Befugnissen entschlossen Gebrauch macht und gleichzeitig darauf achtet, dass die Meinungsfreiheit gewahrt bleibt. Das ist keine einfache Aufgabe und erfordert eine sorgfältige Interessenabwägung seitens der Kommission.“

„In jüngster Zeit wird immer wieder die Forderung erhoben, dass ‚Fake News‘ unter Strafe gestellt und Plattformen stärker in die Verantwortung genommen werden sollten. Den Ruf nach neuen Gesetzen halte ich derzeit jedoch nicht für zielführend. Wir müssen erst einmal sehen, wie sich der DSA in der Praxis bewährt.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Axel Bruns: „Ich habe zu dem Thema keine Interessenkonflikte.“

Prof. Dr. Curd Knüpfer: „Ich habe keine Interessenkonflikte anzumelden.“

Prof. Dr. Matthias Kettemann: „Es bestehen keine Interessenkonflikte.“

Prof. Dr. Sonja Utz: „Keine Interessenkonflikte im klassischen Sinn, aber Forschung in der Arbeitsgruppe ist betroffen von den Einschränkungen der Researcher API.“

Prof. Dr. Andreas Jungherr: „Es liegen keine Interessenkonflikte vor.“

Prof. Dr. Christian Hoffmann: „Ein Interessenkonflikt liegt nicht vor.“ 

Prof. Dr. Edda Humprecht: „Es bestehen keine Interessenkonflikte.“

Prof. Dr. Christoph Busch: „Gerne bestätige ich, dass ich beim Thema Regulierung von Twitter/X keine Interessenkonflikte habe.“

Literaturstellen, die von den Expertinnen und Experten zitiert wurden

[1] Graham T (2023): Understanding Misinformation and Media Manipulation on Twitter During the Voice to Parliament Referendum. OSF Preprints.
Hinweis der Redaktion: Es handelt sich hierbei um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Experten und Expertinnen begutachtet wurde.

[2] Solon O et al. (29.11.2022): Elon Musk’s Job Cuts Decimated Twitter Team Tackling Child Sexual Abuse. Bloomberg.

[3] Frenkel S et al. (02.12.2022): Hate Speech’s Rise on Twitter Is Unprecedented, Researchers Find. The New York Times.

[4] Wendling M (13.04.2023): Twitter and hate speech: What's the evidence? BBC.

[5] Novak M (09.08.2023): Twitter Exec Defends Restoring Account That Shared Child Sex Abuse Material. Forbes.

[6] Hayes D (14.07.2023): Twitter’s New $5M Revenue Sharing Program Gives Payouts To Far-Right Influencers. Deadline.

[7] Milmo D (08.08.2023): TechScape: Why Elon Musk is taking trying to mute anti-hate-speech group. The Guardian.

[8] Vinall V (22.07.2023): Australia to Elon Musk: Explain how you’re dealing with hate on Twitter. The Washington Post.

[9] Zakrzewski C (12.10.2023): Elon Musk’s X faces E.U. probe over handling of Israel-Gaza war. The Washington Post.

[10] Dempsey J (17.07.2023): Twitter loses nearly half advertising revenue since Elon Musk takeover. BBC.

[11] Hern A (31.05.2023): Twitter’s value down two-thirds since Musk takeover, says investor. The Guardian.

[12] Wikipedia: Netzwerkeffekt. Abgerufen am 13.10.2023.t

[13] Fedifinder. Webseite des Tools.

[14] Hickey D et al. (2.6.2023): Auditing Elon Musk’s Impact on Hate Speech and Bots. Proceedings of the International AAAI Conference on Web and Social Media. DOI: 10.1609/icwsm.v17i1.22222.

[15] Gilber D (9.10.2023): The Israel-Hamas War Is Drowning X in Disinformation. Wired.

[16] Valero MV (16.8.2023): Thousands of scientists are cutting back on Twitter, seedings angst and uncertainty. Nature News Feature.

[17] Chang CH et al. (15.8.2023): Environmental users abandoned Twitter after Musk takeover. Trends in Ecology & Evolution. DOI: 10.1016/j.tree.2023.07.002.

[18] Twitter is Going Great. Webseite.