Moderator [00:00:00] Hallo liebe Journalistinnen und Journalisten, herzlich willkommen zu unserem Press Briefing zum Einfluss von sozialen Medien und der rechtlichen Situation vor den Neuwahlen in Deutschland. Mein Name ist Bastian Zimmermann vom Science Media Center und ich habe mit mir hier noch zwei Expertinnen und einen Experten. Erst mal herzlich willkommen, schön, dass Sie da sind, danke, dass Sie es geschafft haben. Ich stelle Sie gleich noch im Detail vor. Noch kurz zum Thema: In zwei Tagen, wie Sie alle wissen, findet die Neuwahl in Deutschland statt. Bisher haben wir einen Wahlkampf erlebt, in dem Desinformationen und fragwürdige Social-Media-Kommunikation eher ein Nebenthema waren. Falschaussagen gab es natürlich zur Genüge, aber die gab es selbst im Quadrell, wie man das so unschön nennt, und da war nicht mal Social Media zu nötig. Trotzdem ist natürlich die Frage: Was passiert da im Hintergrund, was ist da noch passiert, was kann vielleicht auch auf den letzten Metern noch passieren? In den letzten Tagen sind einige Berichte zu dem Thema erschienen. Deswegen wollen wir heute noch einmal darüber sprechen: Welchen Einfluss kann sowohl Desinformation als auch Kommunikation auf sozialen Medien generell auf die Wahlen haben, was ist erlaubt, was ist da nicht erlaubt, das wollen wir uns heute anschauen. Vor der Vorstellung noch kurz der Hinweis an Sie da draußen: Benutzen Sie bitte die Frage-und-Antwort-Funktion von Zoom. Ihre Fragen stelle ich dann im Gespräch den Expertinnen und Experten. Da gibt es auch eine Daumen-hoch-Funktion. Falls Sie eine Frage interessant finden, können Sie da einen Daumen hoch verteilen. Dann wissen wir, diese Fragen werden von Ihnen für interessant gehalten und können diese dann priorisiert stellen. Dann komme ich zu den Expertinnen und dem Experten und stelle sie kurz vor. Erst mal haben wir Professorin Edda Humprecht. Sie ist Professorin für Digitalisierung und Öffentlichkeit am Institut für Kommunikationswissenschaft an der Friedrich-Schiller-Universität Jena. Professorin Julia Metag ist Professorin für Kommunikationswissenschaft an der Universität Münster. Und Professor Ralf Müller-Terpitz ist Inhaber des Lehrstuhls für Öffentliches Recht und das Recht der Wirtschaftsregulierung und Medien an der Universität Mannheim. Herr Müller-Terpitz hat offensichtlich die juristische Perspektive, kann dann die rechtliche Lage einschätzen, was zum Beispiel der Digital Services Act reguliert, was bei Wahlwerbung legal ist, was illegal ist. Die Expertise von Frau Humprecht und Frau Metag überschneidet sich ein bisschen, beide beschäftigen sich mit politischer Kommunikation. Aber Frau Humprecht hat mehr den Fokus auf Desinformationsforschung, da gerade auch vergleichende Forschung zwischen unterschiedlichen Ländern, den Auswirkungen von KI und sozialen Medien. Frau Metag ist ein bisschen mehr fokussiert auf Wissenschaftskommunikation und die Rezeption und Nutzung. Wie immer starten wir mit kurzen Eingangsfragen und ich fange an mit Ihnen, Frau Metag: Wie werden soziale Medien in der politischen Kommunikation in diesem Wahlkampf verwendet und was können Wirkungen von dieser Verwendung sein?
Julia Metag [00:02:49] Vielen Dank für die Frage. Soziale Medien werden zunächst mal von allen Parteien im Wahlkampf verwendet, wie es auch schon in den letzten Wahlkämpfen vermehrt war. Aber es war und ist unterschiedlich intensiv und auch unterschiedlich erfolgreich auf verschiedenen Plattformen. Sie werden auch zur Information von Bürgerinnen und Bürgern verwendet. Wir wissen aus Studien wie dem Digital News Report, dass inzwischen viele Befragte digitale Medien und auch soziale Medien als Zugangsweg zur Nachrichtennutzung nehmen. Die digitalen Kanäle und die sozialen Medien bieten den Parteien und den Kandidaten die Möglichkeit zu versuchen, direkt und ungefiltert mit potenziellen Wählerinnen und Wählern in Kontakt zu treten. Was wir jetzt auch sehen in dem Wahlkampf ist, dass Kanäle wie Instagram und TikTok an Bedeutung noch weiter gewinnen. Da sind diese sehr kurzen visuellen Formate besonders relevant. Die Parteien versuchen attraktive Kurzvideos, die sehr viel Aufmerksamkeit anziehen sollen, zu produzieren und zu verbreiten. Man sieht schon Unterschiede. Die AfD beispielsweise ist sehr aktiv auf TikTok und wenn man das an den Followerzahlen beispielsweise misst, relativ erfolgreich. Bei den Grünen ist es Instagram, wo sie verhältnismäßig erfolgreich sind und wenn man sich anschaut, wer das da macht, dann sieht man, dass erwartbarer Weise Spitzenkandidaten auf den sozialen Medien die meisten Follower haben. Wenn man schaut, was die Wirkung sein könnte, dann wissen wir aus der Forschung, dass es erst mal so ist, dass die Inhalte, die dort gepostet werden, die Posts, die Videos der Parteien und der Kandidaten im überwiegenden Fall erst mal die eigenen Anhänger erreichen. Gewisse Parteien versuchen durch mehr polarisierende oder provozierende Inhalte eine größere Reichweite zu erreichen. Wenn dann Inhalte viel kommentiert, viel geteilt, viel gelikt werden, dass die dann weiter gestreut werden und gegebenenfalls auch Leute jenseits ihrer eigenen Anhängerschaft erreichen. Grundsätzlich wissen wir aber, dass Medienwirkungen und auch die Wirkung von sozialen Medien sehr komplex sind und meistens letztendlich nur einen sehr, sehr kleinen Einfluss auf die Wahlentscheidung haben. Da spielen viele Faktoren eine Rolle, da spielt Herkunft, Bildung, persönliche Erfahrung, Voreinstellungen, die persönliche Situation bis hin zu manchmal so etwas wie dem Wetter am Wahltag [eine Rolle]. Was eben möglich ist, dass die Informationen, denen wir ausgesetzt sind, auch auf sozialen Medien kumulativ wirken, also über längere Zeit immer wieder ausgesetzt sind, dass es da schon eine Wirkung geben kann. Das ist aber sehr, sehr schwierig messbar und nachvollziehbar. Insgesamt wird die Wirkung als immer noch relativ klein eingeschätzt.
Moderator [00:06:30] Vielen Dank erst mal für das Eingangsstatement. Das mit den kumulativen Wirkungen und dass sehr viele Faktoren dazu führen können, was die Wahlentscheidung ist, das hören wir ja immer wieder. Einer der Faktoren, das passt jetzt gut zur Eingangsfrage an Sie, Frau Humprecht kann natürlich auch Desinformation sein. Und da die Frage: Was sagt die Forschung, was können Wirkungen von Desinformation im Wahlkampf sein?
Edda Humprecht [00:06:52] Die Wirkungen von Desinformation im Wahlkampf, wie Julia Metag das gerade schon ausgeführt hat, sind schwer messbar. Zum einen: Es gibt Hinweise darauf, dass sie die Art und Weise beeinflussen, wie Menschen Informationen konsumieren, aber auch, wie sie politische Einstellungen treffen. Aber die Vorstellung, dass jetzt ein einzelner gefälschter Nachrichtenartikel zum Beispiel oder ein spezifisches Deep-Fake-Video die Wählerinnen und Wähler dazu veranlassen würde, eine bestimmte Partei zu wählen oder vielleicht nicht zur Wahl zu gehen, das ist zu simpel. Davon muss man sich verabschieden. Wie auch eben schon gesagt, geht es eher um kumulative Wirkung, also eher eine schleichende Verzerrung des Meinungsklimas, die dann möglicherweise zu einer Polarisierung führt und auch eine Erosion des Vertrauens in demokratische Institutionen, in Regierungen, Parteien, Medien, journalistische Medien. Wir können jetzt schon beobachten, dass es auch in Deutschland zunehmend schwieriger wird, konstruktive Diskussionen zu führen zu bestimmten politischen Themen und dass die Meinungen auf dem Spektrum eher nach außen rücken, polarisieren, dass es viel weniger einen Common Ground gibt, wo wir miteinander ins Gespräch kommen und einen Konsens finden, was natürlich essenziell ist für das Funktionieren von Demokratien. Eine andere Wirkung ist auch, dass diese ganzen Diskussionen um Desinformation, zu der wir jetzt natürlich auch beitragen, auch zu einer gewissen Verunsicherung führen. Wir wissen aus vielen verschiedenen Studien, dass die Bürgerinnen und Bürger zunehmend darüber besorgt sind, ob sie falsche Inhalte von wahren Inhalten auseinanderhalten können, dass das sie verunsichert, auch, ob es vielleicht eine Einflussnahme gibt. Beispielsweise im Digital News Report letztes Jahr waren es 42 Prozent der Deutschen, die diese Besorgnis hatten. Das ist noch mal deutlich weniger als in vielen anderen Ländern, aber trotzdem natürlich ein signifikanter Teil. Vor diesem Hintergrund kann das dazu führen, dass das eine gewisse Abwendung vom politischen System, von politischen Themen gibt, einen gewissen Zynismus, eine Politikverdrossenheit. Das grundsätzlich zu den Wirkungen. Wenn man jetzt auf den aktuellen Wahlkampf schaut, dann sieht man auch solche Entwicklungen wie den Einsatz von künstlicher Intelligenz und generativen Inhalten. Dabei gab es ja im Vorfeld große Besorgnisse, ob das bestimmte Wirkungen hat. Auch da muss man sagen: Die Wirkungen sind eher begrenzt, weil es in der Regel eher darum geht, bestehende Einstellungen zu verstärken und nicht so sehr um die Fälschungen an sich. Wir sehen das auch an den Inhalten, die dann viral gehen, wie wir das so schon sagen, also was eine sehr große Reichweite gewinnt, dass das eigentlich in der Regel eher schlechte Fälschungen sind. Da gab es eine Vielzahl von Beispielen auch im Wahlkampf. Das sind häufig Beispiele, die gar nicht so gut gemacht sind, dass sie nicht mehr unterschieden werden können. Trotzdem besteht dieses Risiko und wir sehen auch, dass die Technologie immer besser wird, sodass es schon möglich ist, auch Inhalte, Bilder, Videos, Audioinhalte zu produzieren, die dann so gut gemacht sind, dass die auch für geübte Augen schwer zu identifizieren sind. Aber wie gesagt, in der Regel geht es nicht um die perfekte Fälschung. Was wir sonst noch beobachten können in Bezug auf Desinformation sind die Akteure, dass das auch immer vielfältiger wird. Da gab es jetzt auch von CeMAS einen Bericht dazu, der ganz interessant war. Wir wissen ja schon seit langem, dass staatliche Akteure ein Interesse haben, Desinformation zu verbreiten. Das können natürlich ausländische Akteure sein, wie China oder Russland, aber auch nationale Akteure. Aber es gibt auch viele Individuen, die das tun oder auch gesellschaftliche Gruppen oder eher ideologisch motivierte Gruppen, die dann solche Narrative verbreiten. Man muss aber sagen, große Reichweite in den sozialen Medien bekommen solche Inhalte dann erst, wenn sie von Personen mit sehr vielen Followern aufgegriffen werden. Das sind häufig politische Akteure, teilweise sind es auch Medien, die das unabsichtlich weiterverbreiten, aber dann bekommen diese Inhalte wirklich eine große Reichweite. Darüber hinaus haben wir auch in dieser Bundestagswahl oder im Vorfeld dieser Wahl auch russische Einflussnahme beobachten können. Das hatten wir ja erwartet und auch schon an anderer Stelle gesehen. Da gab es Berichte dazu, diese Doppelgängerkampagne oder Storm-1516, die dann gezielt einzelne Akteure angreifen, insbesondere die Grünen, Robert Habeck oder auch generell darauf zielen, gesellschaftliche Spaltung zu verstärken oder eine Unsicherheit hervorzurufen auch zum Beispiel in Hinsicht auf die wirtschaftliche Situation, Ängste zu schüren bei den Menschen, aber eben auch gezielt eher extremistischer Kräfte, beispielsweise die AfD zu stärken. Ganz grundsätzlich, das hatte Julia Metag auch schon angesprochen, geht es ja häufig darum, Emotionen zu schüren, ganz gezielt mit bestimmten Themen, die auch polarisieren. Oft haben wir ja auch in früheren Wahlen Migration und Kriminalität [als Themen gesehen], da gab es auch eine ganze Reihe von Beispielen. Das sind natürlich auch Themen, emotionale Inhalte, die auf den Plattformen sehr gut funktionieren, weil die Algorithmen das belohnen mit mehr Sichtbarkeit und das setzen die Akteure gezielt ein. Das funktioniert auf manchen Plattformen noch besser als auf anderen. Es wurde auch schon TikTok genannt als Plattform, die jetzt auch für Desinformation immer wichtiger wird. Das haben wir auch beobachtet. Auch Telegram ist nach wie vor wichtig für die Akteure, die Einfluss nehmen wollen. Da gibt es Hinweise in der Forschung, dass Nutzerinnen und Nutzer von TikTok beispielsweise empfänglicher sind für Desinformationen. Insbesondere sind das solche Personen, die sich hauptsächlich über solche Plattformen informieren und vielleicht wenig Austausch haben, wenig andere, wenig journalistische Medien nutzen, wenig Austausch mit anderen Personen [haben]. Das sind Personen, die eher gefährdet sind. Man muss aber auch sagen, dass natürlich über die anderen Plattformen auch Desinformationen verbreitet werden. Wir haben schon kurz über Elon Musk gesprochen. X ist da wichtig und dadurch, dass er sich aktiv einmischt und dann dieses Gespräch beispielsweise mit Alice Weidel geführt hat, tritt er als massiver Verstärker von solchen rechten und auch populistischen Inhalten auf und mischt sich dadurch ein. Darüber können wir vielleicht später auch noch mal kurz sprechen. Vielleicht noch ganz kurz. Ich denke, was einfach wichtig ist, ist, dass Desinformation als Thema aus meiner Sicht zumindest jetzt nicht einfach so eine vorübergehende Begleiterscheinung ist von modernen Wahlkämpfen, sondern das ist ein Thema, das uns langfristig beschäftigen wird. Es ist ein Thema, das es schon immer gab, aber jetzt durch die sozialen Plattformen eine neue Dynamik bekommen hat und das wird sicher etwas sein, was uns auch in Zukunft immer wieder beschäftigen wird.
Moderator [00:14:37] Vielen Dank. Das waren schon sehr viele Aspekte drin. Ich finde den Aspekt interessant, dass viel Berichterstattung, viel Reden, viel Raunen über Desinformation auch zur Verunsicherung über dieses Thema beitragen kann und dann vielleicht auch einen negativen Effekt hat. Ich hoffe jetzt, dass wir zum Verständnis des Themas und zur evidenzbasierten Berichterstattung beitragen und nicht zur Verunsicherung. Aber genau da kommen wir, glaube ich, auch noch später drauf auf dieses Thema. Aber jetzt kommen wir erst mal noch zu Herrn Müller-Terpitz und Ihrer Eingangsfrage: Was ist bei Wahlwerbung eigentlich erlaubt, wann wird beispielsweise Social-Media-Einflussnahme illegal? Wann ist es einfach nur normale politische Werbung?
Ralf Müller-Terpitz [00:15:19] Die Frage ist so einfach nicht zu beantworten. Vieles, was über Social Media an Inhalten transportiert wird, seien es Äußerungen von Individuen, sei es eben auch Wahlwerbung, die auch eine Form von Kommunikation ist, ist natürlich zunächst einmal durch die Meinungsfreiheit geschützt und dementsprechend grundsätzlich erlaubt. Das gilt im Prinzip auch für Falschbehauptungen. Nur die bewusste, unwahre Tatsachenbehauptung wird nach unserem Rechtsverständnis nicht durch die Meinungsfreiheit geschützt. Das gilt sowohl auf nationaler wie auch auf europäischer Ebene, weswegen man mittlerweile zwischen Desinformation und Misinformation unterscheidet. Also die Desinformation als bewusst unwahre Tatsachenbehauptung wäre jetzt außerhalb des geschützten Bereichs, die Misinformation, also die fälschliche oder grob fahrlässige Behauptung falscher Tatsachen, wäre allerdings grundrechtlich geschützt und könnte dementsprechend zunächst mal verbreitet werden. Das heißt also, Misinformation per se ist nicht illegal und auch Desinformation per se ist nicht illegal. Das kann natürlich in den strafrechtlichen Bereich hineingehen. Es wurden ja einige Beispiele genannt, also Hackerangriffe, da bin ich im Bereich der Computerstrafbarkeit oder wenn ich über Desinformation volksverhetzende, friedensbeeinträchtige oder terroristische Maßnahmen befördere, kann ich im Bereich der Strafbarkeit sein. Das wären unzulässige Handlungen. Aber darunter gibt es ja eine riesige Bandbreite von Informationen, die einfach bewusst unwahr sind, aber keinerlei strafrechtliche Relevanz haben und dementsprechend auch zunächst mal in die Welt gesetzt werden könnten. Darauf komme ich sicherlich auch noch einmal später zu sprechen. Aber jetzt zum Kern Ihrer Frage: Politische Kommunikation und Wahlwerbung. Da ist es so, wenn wir uns die derzeitigen rechtlichen Grundlagen anschauen, im nationalen Recht wie im europäischen Recht, in Gestalt der Transparenz- und Targetingverordnung, die in Kraft getreten ist und ab Oktober 2025 auch vollumfänglich anwendbar sein wird, dass der Begriff der politischen Kommunikation, der Werbung eigentlich sehr weit gefasst wird. Ich beschränke mich jetzt mal auf die deutsche Formulierung, weil die das im Grunde genommen schön zusammenfasst. Da wird politische Werbung als alles deklariert, was zur Darstellung oder im Interesse parteipolitischer, gesellschaftspolitischer, sozialpolitischer oder vergleichbarer Ziele verbreitet wird, um die politische Meinungsbildung zu beeinflussen. Der Begriff der politischen Werbung ist sehr, sehr weit und das wirft die Frage auf: Was folgt jetzt rechtlich daraus, wie reagiert das Recht darauf? Politische Werbung ist ja zunächst mal per se erwünscht, weil es unabdingbar, weil es konstitutiv ist für eine Demokratie, dass Parteien oder Politiker für ihre politischen Ziele werben und dementsprechend gibt es auch in der Rechtsordnung, sei es jetzt die europäische und nationale, nicht das Verbot bestimmter politischer Werbung. Wir können als Verbot vielleicht auf die KI-Verordnung rekurrieren und dort feststellen, dass es das Verbot gibt, unterschwellige Beeinflussungen zu verwenden, wo dann eben KI-basiert möglicherweise bestimmte politische Inhalte mit werblichem Charakter in den Vordergrund gespielt werden und andere bewusst zurückgesetzt werden. Das wäre ein Verbotstatbestand, also der manipulative Einsatz von Algorithmen, um zu erreichen, dass bestimmte politische Inhalte in den Vordergrund gespielt werden und andere nicht. Das wäre sicherlich ein Verbotstatbestand, das müsste man erst mal nachweisen in der Praxis, das ist alles andere als trivial. Deswegen arbeitet das Recht auch nach meinem Eindruck da mehr mit anderen Parametern, mit anderen Prinzipien. Das ist vor allen Dingen das Transparenzprinzip. Man versucht eben, politische Kommunikation transparent zu machen durch Hinweis-Verpflichtungen, durch Verpflichtungen über die Algorithmen, die solche Inhalte verbreiten, aufzuklären, über die Herkunft der Finanzierung solcher politischen Kommunikation Auskunft zu geben oder eben auch bestimmte Formen der Kommunikation wie Social Bots zu kennzeichnen. Das ist ein großer Themenblock, den wir sowohl im europäischen als auch im nationalen Recht finden. Ein weiterer großer Themenblock sind Bewertungsverfahren. Das kommt vornehmlich jetzt von der europäischen Ebene, die zunehmend in die Gesetzgebungsakte implementiert werden. Das fängt an bei der DSGVO (Datenschutzgrundverordnung) über die KI-Verordnung bis hin zum Digital Services Act mit seinen Artikeln 34 und 35, die voraussetzen, dass ich als soziale Plattformen eine Risikoanalyse vornehme, gerade mit Blick auf systemische Risiken einer "Very Large Online Platform" für gesellschaftliche Debatten und Wahlprozesse. Der Begriff des Wahlprozesses taucht im Digital Service Act auch ausdrücklich auf. Und dass ich dann eben auch über Maßnahmen nachdenke, wie solche Risiken eingedämmt werden können. Wir erleben mittlerweile auch eine spezielle Regulierung, was politische Kommunikation anbelangt. Das ist diese Targeting-Verordnung, die ich schon erwähnt habe, die Transparenz- und Targeting-Verordnung, die in Artikel 18 Absatz 1 vorsieht, dass derjenige, der politische Werbung verbreitet durch Algorithmen, dafür nicht auf Daten zurückgreift, die er gekauft hat. Die Plattform muss eigene Daten verwenden, der Nutzer auf dieser Plattform muss in die algorithmische Zustellung solcher politischen Kommunikation eingewilligt haben und es dürfen für die Verteilung und Verbreitung solcher politischen kommunikativen Inhalte keine sensiblen Daten im Sinne der DSGVO, also beispielsweise politische Präferenzentscheidungen, verwendet werden. Da versucht man einfach über eine Algorithmensteuerung so etwas wie Fairness und Gleichheit unter den politischen Akteuren herzustellen, dass dort eben kein gezieltes Profiling erfolgen soll, um eben mit bestimmten politischen Aussagen bestimmte Leute, bestimmte Gruppen zu adressieren. Ich denke, an der Stelle belasse ich das erst mal als Eingangsstatement. Wir haben hier verschiedene Prinzipien, die mittlerweile um sich greifen. Das ist vor allen Dingen Transparenz, Risikobewertungsverfahren und spezielle Algorithmen-Regulierung möchte ich jetzt mal sagen, die im Bereich der politischen Kommunikation relevant wird. Das Ziel ist eigentlich nicht, diese politische Kommunikation per se zu verbieten, sondern das Ziel ist, die Bürger vor allen Dingen dazu zu befähigen, damit umzugehen, also zu wissen, mit was man es zu tun hat und eben insgesamt ein vertrauenswürdiges Onlineumfeld zu schaffen.
Moderator [00:21:55] Vielen Dank erst einmal für den ersten Einblick. Noch kurz der Hinweis an Sie da draußen, wir haben jetzt schon einige Fragen bekommen, aber falls Sie Fragen haben, stellen Sie sie gerne. Ich habe auch selber genug Fragen, um durchs ganze Press Briefing zu gehen. Aber es ist ja auch Sinn der Sache, dass Sie Ihre eigenen Fragen stellen können. Die erste Frage stelle ich jetzt an Sie, Frau Humprecht. Allerdings haben Sie haben schon die Schwierigkeit angesprochen, manche Sachen nachzuweisen, gerade jetzt zum Beispiel algorithmische Bevorteilung. Und ich habe die Befürchtung, bei dieser Frage könnte es auch auf die Schwierigkeit des Nachweises hinauslaufen, nämlich die Frage, dass man überall Kommentare liest, die zur Wahl der AfD aufrufen, nach dem Motto: "Deshalb AfD", mit blauen Herzen, selbst bei Videos, die keinen AfD-Bezug haben. Ist das eine Bot-Kampagne? Und kann man sagen, wer dahintersteckt? Ist es die AfD oder jemand anderes?
Edda Humprecht [00:22:42] Es ist tatsächlich nicht einfach, das nachzuvollziehen. Ein Grund ist, dass wir natürlich auch keinen guten Zugang haben zu den Daten von den Plattformen, aber auch die Accounts, die das posten, sagen, dass sie diese Rückschlüsse nicht zulassen. Aber was wir wissen aus früherer Forschung, was wir sehen, ist, dass diese Muster, dass immer wieder dieselben Kommentare gepostet werden, schon auf Bot-Kampagnen schließen lassen. Das wissen wir und das sehen wir. Und das kann eben relativ einfach automatisiert werden. Wer dahintersteckt, ist dann wiederum eine andere Frage. Das kann natürlich die AfD sein. Wir wissen auch aus den Berichten, die zum Beispiel zu russischen Einflusskampagnen veröffentlicht wurden und auch von journalistischen Medien investigativ recherchiert wurden in den letzten Monaten, dass es durchaus auch ein Ziel ist, die AfD zu stärken. Das liegt auch nahe, aber es ist tatsächlich sehr, sehr schwer, das empirisch nachzuweisen.
Moderator [00:23:42] Ja, das ist da natürlich oft das Problem. Einen Versuch von empirischen Nachweisen hat es ja jetzt kürzlich gegeben, mit einer Studie, mit einem Preprint, der Anfang der Woche erschienen ist. Frau Metag, ich stelle die Frage zuerst an Sie, dann aber auch gerne Ergänzungen. Der Preprint hatte ja angeblich gezeigt, dass die AfD und das BSW im "For You Feed" von X häufiger angezeigt werden, also dem algorithmisch kuratierten Feed im Vergleich zu dem Feed mit den Posts der Leute, denen man folgt. Laut der Studie würden die Grünen und die SPD weniger angezeigt und die Autorinnen und Autoren wollen das auch aufgerechnet haben gegen andere Faktoren, die noch mit hineinspielen, wie jetzt zum Beispiel, dass AfD-Tweets vielleicht mehr Engagement bei X hervorrufen und deswegen häufiger angezeigt werden. Sie haben ja kurz hineingeschaut. Können Sie etwas dazu sagen, ob die Studie wirklich das zeigen kann, was sie behauptet?
Julia Metag [00:24:36] Die Studie ist, wie Sie schon richtig gesagt haben, noch ein Preprint. Das heißt, sie hat noch nicht das wissenschaftliche Peer-Review-Verfahren durchlaufen und von daher müssen wir auch abwarten, was dann wissenschaftliche Kolleginnen und Kollegen dazu sagen. Den Eindruck, den ich bisher von der Studie habe, ist, dass sie mit einem relativ einfachen Setting [arbeitet]. Es werden zwei Accounts aufgesetzt auf X, die dann den verschiedenen Parteien gefolgt sind, also neue Accounts, die erst einmal neutral waren, die dann den verschiedenen Parteien gefolgt sind, und dann geschaut haben, welche Posts werden in den For You Feeds ausgespielt. Und eine überwiegende Mehrheit waren extremistische Beiträge und viele von der AfD. Das ist ein kleiner Ausschnitt, den man da sehen kann. […] Sie haben, glaube ich, Anfang Januar angefangen, das ist eine relativ begrenzte Zeit und auch eine relativ begrenzte Menge an Posts im Vergleich zu den Datenmengen, die wir an sich dort haben. Und von daher ist die Aussagekraft in der Hinsicht noch etwas begrenzt. Nichtsdestotrotz passen die Ergebnisse natürlich dazu, […] dass wir zumindest keinen Einblick haben, wie Edda Humprecht auch gerade schon angedeutet hat, wie diese Algorithmen funktionieren. Und das ist ja auch etwas, worauf gerade Forschende lange Zeit schon aufmerksam machen, dass es diesen Einblick braucht, um besser bewerten zu können, analysieren zu können, was dort passiert auf den sozialen Medien. Und da wir diesen Einblick nicht haben, ist es durchaus möglich, oder den Eindruck haben wir natürlich durchaus, dass bestimmte Posts stärker ausgespielt werden als andere. Und auch, wenn jetzt hier gesagt wird, es wurde versucht zu bereinigen, [passiert] trotzdem natürlich in der realen Welt ein großes Engagement, ein größeres Sharen von Stimmen, Posts häufig bei Posts, die sehr polarisierend sind, sehr emotional sind und provozierend sind, was häufiger beispielsweise bei Posts der AfD der Fall ist.
Moderator [00:27:08] Frau Humprecht, vielleicht von Ihnen eine Ergänzung. Sie hatten das ja auch schon angeguckt. Und die Frage dazu, vielleicht können Sie darauf auch eingehen. In den Supplements waren dann [auch Listen], welche Accounts was mal geboostet hatten oder zu mehr Engagement verholfen wurde. Da stand dann eben auch Elon Musk. Ist es vielleicht allein schon durch ihn zu erklären, dass er so immens viel mehr Einfluss auf X hat als jegliche(r) deutscher Politiker oder Politikerin?
Edda Humprecht [00:27:32] Ja, ich kann nur bestätigen, was Julia Metag schon gesagt hat. Es ist ein relativ kleines Sample, das dort untersucht wurde, also die Datenbasis ist relativ klein, aber es passt sehr gut zu den Resultaten, die wir schon aus früheren Studien kennen, dass solche Inhalte sich besser verbreiten von Parteien, die dann zum Teil auch auf solchen Plattformen oder auf vielen Plattformen viel aktiver sind, die Parteien an den politischen Extremen, einfach weil sie natürlich nicht so große Wählerinnen- und Wählergefolgschaften haben. Sie mussten schon früh anfangen, sehr aktiv zu sein. Das beobachten wir schon sehr lange, dass die AfD das zum Beispiel sehr gut macht, aber eben auch andere Parteien. Und darüber hinaus ist dieser Befund, dass Elon Musk so präsent ist, wie gesagt, auch schon in anderen Studien gezeigt worden, und dieser Einfluss, dass der sich dann in diesen Inhalten so zeigt, ist auch nicht verwunderlich. Grundsätzlich würde man vielleicht dieses Forschungsdesign etwas anders aufsetzen mit viel mehr Accounts, um das zu validieren, und auch über einen längeren Zeitraum idealerweise. Aber, wie gesagt, das ist jetzt noch eine sehr neue Studie, die noch nicht begutachtet wurde. Und das ist natürlich zunächst einmal gut, dass es jetzt sehr aktuelle Befunde gibt. Vielleicht noch ein kurzer Nachtrag zu dieser Frage nach dem Datenzugang: Das ist, wie gesagt, für die Forschenden ein sehr großes Thema. Eigentlich sollte der DSA sicherstellen, dass es diesen Zugang gibt, aber an der Durchsetzung mangelt es hier. Und deswegen ist es bislang immer noch sehr schwierig für uns Forschende, dort sehr schnell an Daten zu kommen – gerade in solchen Zeiträumen, die dann politisch besonders bedeutsam sind, wie beispielsweise Wahlen.
Moderator [00:29:37] Ja, vielen Dank. Das passt ja einigermaßen zu dem, was wir auch sonst in der Forschung sehen. Eine Frage zu einem anderen Thema an Sie, Herr Müller-Terpitz, die ich mir direkt gestellt habe, als Sie im Eingangs-Statement darüber geredet haben: Gab es in diesem Wahlkampf schon Beispiele von Aktionen, die gegen geltendes Recht verstoßen haben, oder ist es da bisher eher ruhig geblieben?
Ralf Müller-Terpitz [00:30:03] Mir sind jetzt tatsächlich keine bewusst, wo ich sagen würde, da gab es eine klare Rechtsverletzung. Es ist ja diskutiert worden, wie jetzt beispielsweise mit diesem Alice-Weidel-Fall und Elon-Musk-Fall umzugehen ist, was das ist, ob das beispielsweise eine verdeckte Wahlkampfhilfe ist oder eine Form von politischer Werbung. Aber da zeigt sich schon, wie schwierig es ist, das einzustufen. Wenn wir in dem Kontext in die Targeting-Verordnung hineinschauen, könnte man durchaus sagen, es ist noch nicht einmal politische Kommunikation im Sinne dieser Targeting-Verordnung, weil es hier redaktionell, zumindest ein Stück weit, formal-redaktionell eingehegt worden ist, dadurch, dass Elon Musk als Eigentümer der Plattform hier einer Politikerin die Möglichkeit gegeben hat, sich zu präsentieren. Das soll ja durch die Targeting-Verordnung nicht per se unterbunden werden beziehungsweise als politische Werbung eingestuft werden. Aber da beginnen schon die Probleme. Ist das wirklich redaktionell eingehegt gewesen? Oder war es vielleicht tatsächlich doch einfach nur platte Wahlkampfwerbung, die als solche nicht transparent gemacht worden ist? Alles sehr schwierige Fragen. Die Rechtsordnung, das hatte ich ja eben schon erwähnt, bietet mittlerweile einige Antworten darauf. Die Antworten, die geboten werden, sind nicht immer klar, auch die werfen wiederum neue Interpretationsfragen auf. Und ein großes Problem, das ich sehe, das Frau Humprecht eben angesprochen hat, ist das Vollzugsdefizit. Wir haben mittlerweile eine Fülle an Regelungen. Selbst wenn die einigermaßen klar sind – wie im Falle dieses Artikels, 40 DSA ist es, glaube ich, der den Zugang zu Daten für Forscher gewährleistet –, fehlt es dann an der zügigen Durchsetzung solcher Rechte. Auch daran wird zu arbeiten sein. Das wird wahrscheinlich sogar in den nächsten Monaten und Jahren der Hauptfokus sein, dass man die vielen Regelungen, die man jetzt hat, tatsächlich auch effizient anwendet in der Praxis.
Moderator [00:31:58] Vielen Dank für den Einblick. Es gab noch die Frage nach dem Link zu dem Preprint. Das habe ich jetzt gepostet. Das steht jetzt unten unter beantwortete Fragen, falls Sie es nicht mehr finden. Und da war noch die Frage, [ob] jemand noch ähnliche Studien kennt zu dem Thema. Falls Ihnen noch Studien einfallen, können Sie sie gerne in den Chat posten oder in das Frage-Antwort-Modul. Ich glaube, das ist jetzt nichts, worauf wir im Gespräch eingehen müssen, aber falls Sie da noch Links haben, können Sie sie gerne hinzuposten. Dann gibt es noch eine Frage explizit an Sie, Frau Humprecht. Sie sagten, gesellschaftliche Diskussionen seien viel polarisierter, es gebe keinen Common Ground mehr. Ist das eine explizite Wirkung von sozialen Medien? Und was kann man dagegen machen?
Edda Humprecht [00:32:39] Ja, das sind sehr gute und wichtige Fragen. Daran sind natürlich nicht die sozialen Medien schuld. [Immer] wenn Ereignisse eintreten, die wir nicht so vorhergesehen haben oder die uns aufrütteln, dann suchen wir immer nach einfachen Antworten. Das war auch in den letzten Wahlen so, in den USA beispielsweise, dass man dann irgendwie auf Cambridge Analytica geschaut hat oder KI war ein großes Thema. Das ist natürlich nicht so einfach. Wir stehen vor gesellschaftlichen Umwälzungen oder durchleben die gerade, gesellschaftliche Transformationen. Wir haben einen kulturellen Backlash in Teilen der Gesellschaft. Und das wirkt sich aus. Die Rolle der sozialen Medien ist, dass sie diese Debatten verstärken können und, wie ich es vorhin angesprochen habe, auch das Meinungsklima etwas verzerren können, einfach allein deswegen, weil bestimmte Akteure sehr viel aktiver sind und wir auch wissen aus der Forschung, dass nur ein ganz kleiner Teil der Nutzenden sich auch aktiv beteiligt. Und das sind häufig Personen, die sehr starke Meinungen haben, auch ein bestimmtes Persönlichkeitsprofil, eher bereit sind, sich zu äußern, und alle anderen Personen eher passiv mitlesen. Und aber der Eindruck entstehen kann, dass es zu bestimmten Themen nur eine Meinung gibt oder eine sehr dominante Meinung, auch wenn das nicht der Realität entspricht, also der Verteilung der Meinungen in der Bevölkerung. Das ist einmal der eine Effekt. Der zweite Teil davon ist, was auch schon angesprochen wurde, dass sich Informationen sehr, sehr schnell verbreiten können, natürlich aufgrund der Algorithmen und dass die Algorithmen auch Inhalte quasi primär ausspielen, die besonders polarisieren, emotionalisieren, sensationalisieren, weil sie eben Aufmerksamkeit erzeugen, häufig geteilt werden, gelikt werden und deswegen dann mehr Sichtbarkeit bekommen. Was man jetzt dagegen tun kann – das ist natürlich eine sehr wichtige Frage und auch keine so einfache. Es gibt leider auch keine so einfache Lösung für dieses Problem. Die Lösungen sind genauso komplex. Grundsätzlich, das hatte ich ja vorhin auch schon einmal kurz gesagt, kann eine große Diskussion um das Thema Desinformation auch zu einer Verunsicherung führen. Das heißt aber nicht, dass wir jetzt nicht mehr darüber sprechen sollten. Das ist nach wie vor ganz wichtig. Und wir wissen auch aus der Forschung, dass Interventionen – wir sprechen auch manchmal von Prebunking – schon auch Wirkung zeigen können und Personen dabei helfen können, zum Beispiel falsche oder manipulative, gezielt irreführende Inhalte als solche zu erkennen. Häufig ist es ja auch bei diesen Inhalten so, dass sie nicht komplett erfunden sind, sondern dass es sich um Halbwahrheiten handelt, die dann auf wahren, auf echten Ergebnissen beruhen und dann besonders verfangen. Und wie gesagt, wir wissen aus der Forschung, dass solche Strategien sehr gut funktionieren können. Aber sie sind auch keine Lösung für alle. Es ist häufig so, dass bestimmte Personen offener für solche Interventionen sind, oder häufig wird das ja in Workshops auch vermittelt, je länger das ist, desto effektiver ist das auch. Das sind dann nicht unbedingt die Personen, die sehr empfänglich sind für solche Desinformationen und sich vielleicht nur auf Telegram informieren. Das ist schon so eine Voraussetzung oder ein Problem. Auf der anderen Seite sehen wir auch, dass zwar die Fähigkeiten besser werden, Desinformation als solche zu erkennen und auch zu verstehen, was die Motivation dahinter [ist], aber dass es sich nicht unbedingt in einer Verhaltensänderung ausdrückt. Das heißt, wir wissen zwar, dass wir vielleicht erst einmal nachschauen sollten: Ist dieses Bild schon einmal anderweitig gepostet worden oder […] was ist das für eine Quelle, die dahintersteht? Aber viele Menschen machen das trotzdem nicht. Das ist ein Problem. Nichtsdestotrotz sind diese Interventionen wichtig, genauso wie Fact Checking. Auch da wissen wir, dass die Wirkungen begrenzt sind. Zum einen, weil eben nicht alle Personen offen dafür sind, empfänglich sind, auch nicht unbedingt damit in Berührung kommen oder kommen wollen, weil sie zum Beispiel gar keine journalistischen Medien konsumieren oder weil sie Fact Checkern wie Correctiv nicht vertrauen. Trotzdem sehen wir aber auch, dass es zumindest bei sehr abgegrenzten Themen, die nicht so stark polarisiert sind, sehr gut funktionieren kann. Das heißt, ich sehe da Handlungsbedarf auf vielen Ebenen. Das ist ein politisches Thema, das durchgesetzt werden kann, indem zum Beispiel auch mehr solche Interventionsstrategien in der Schule unterrichtet werden, aber auch natürlich in den verschiedenen Alterskategorien da Angebote gemacht werden. Die Plattformregulierung ist sicher auch wichtig, ich denke, der DSA ist da ganz wichtig als erster Schritt. Aber die Durchsetzung wäre jetzt noch wichtig, denn die Plattformen sind da sicher auch gefragt [beim Handeln]. Und natürlich spielen auch Medien eine Rolle, indem sie zum Beispiel Fact Checking betreiben oder eben eine Anlaufstelle für gut recherchierte Informationen bieten.
Moderator [00:37:51] Hier gibt es direkt eine Frage, die sehr gut dazu passt. Das hatten Sie ganz kurz angeschnitten. Die Journalistin sagt: Es gibt ja häufig die Forderung, die Digitalkompetenz von Jugendlichen auch in der Schule zu verbessern. Aber wie sieht es eigentlich mit der digitalen Infokompetenz von Erwachsenen aus? Die sind ja genauso Adressaten und meist weniger flink im digitalen Raum.
Edda Humprecht [00:38:10] Ja, wie gesagt, ich sehe es so, dass es über die ganze Lebensspanne hinweg wichtig ist. Und die empirischen Befunde sind da sehr unterschiedlich. Es kommt immer stark auf das Thema an, wer empfänglicher ist für Desinformation, aber wir sehen da kein ganz klares Muster. Aber es ist sicher wichtig, dass das überall geschult wird und Thema ist. Es ist natürlich viel schwieriger, an ältere Personen heranzukommen. Da können Angebote gemacht werden, die dann freiwillig in Anspruch genommen werden. Und auch da stellt sich das Problem, dass die Personen, die besonders empfänglich sind und vor allen Dingen empfänglich sind, weil diese Informationen ihre Einstellungen bestätigen, natürlich nicht die sind, die dann freiwillig an solchen Workshops beispielsweise teilnehmen.
Moderator [00:39:03] Okay, also Medienkompetenz bringt schon etwas, aber ist jetzt mal wieder leider auch kein Allheilmittel. Eine Frage an Sie, Frau Metag, noch zum Forschungsdatenzugang nach dem DSA. Was erwarten Sie sich eigentlich davon? Und wird das jetzt wirklich ein Durchbruch im Hinblick darauf zu verstehen, wie die Algorithmen, die mysteriösen Algorithmen wirklich funktionieren?
Julia Metag [00:39:24] Ja, ich glaube, es passt ganz gut zu einer anderen Frage. Wie man eigentlich versucht, da ranzukommen, was die Personen wirklich sehen in ihrem Feed. Wir haben vorhin schon über die Studie gesprochen, wo diese Accounts aufgesetzt wurden, weil der DSA noch nicht so gut in seiner Umsetzung funktioniert. Dann versucht man eben über solche Hilfsmittel an Daten zu kommen, zum Beispiel auch über Datenspenden. Also dass man Nutzer:innen fragt, ob sie freiwillig einwilligen, Forscher:innen ihre Daten weiterzugeben, also was Sie sehen auf Social Media, den Forscher:innen zur Verfügung zu stellen, um Einblick zu bekommen, was tatsächlich individuell in diesen Feeds passiert. Wir erhoffen uns schon, dass das durch den DSA dann besser greifbar ist, auf einer größeren Datenbasis, was tatsächlich in verschiedenen Feeds gepostet wird, um einen besseren Einblick zu bekommen, wie die Algorithmen dahinter eigentlich funktionieren. Das sind bisher sozusagen Behelfsmethoden, um an diese Daten zu kommen. Die sind alle in irgendeiner Weise natürlich limitiert. Wenn es denn so umgesetzt werden würde, wie es laut DSA eigentlich geplant ist, oder wenn man die Plattformen da wirklich verpflichtet könnte, die Daten in dieser Form bereitzustellen, natürlich unter Wahrung von anderen Datenschutzrichtlinien, dann wäre das auf jeden Fall ein großer Fortschritt für die Forschung.
Moderator [00:41:19] Ja, gut, dass Sie es direkt mit einer anderen Frage kombiniert haben. Stimmt, das passt da ganz gut. Okay, es ist weiterhin schwierig, an diese Sachen zu kommen, und man muss sich irgendwie behelfen. Kann man denn sehen, dass durch den DSA wenigstens eine Verbesserung stattgefunden hat? Oder ist es wirklich so, dass die sozialen Medien das trotzdem blocken?
Julia Metag [00:41:44] Das kann ich jetzt nicht in der Tiefe beantworten. Was ich aus der Erfahrung kenne, ist schon, dass das eben, was Edda Humprecht vorhin auch schon angesprochen hat, in der Umsetzung teilweise schwierig ist. Also dass eben gerade die Plattform X sehr häufig abblockt, wenn man einen Antrag stellt, der nicht positiv beschieden wird. Das heißt, dass eigentlich die Verpflichtung, die da drinsteckt, noch nicht richtig greift.
Edda Humprecht [00:42:14] Das kann ich bestätigen. Und das ist auch bei den Meta-Plattformen der Fall. Die ganzen Prozesse sind sehr, sehr langwierig. Das heißt, man kann schlecht auf aktuelle Ereignisse Bezug nehmen. Das heißt, da liegt noch ein sehr langer Weg vor uns.
Moderator [00:42:32] Da gibt es jetzt direkt noch eine Nachfrage. Und danach habe ich wieder eine Frage an Herrn Müller-Terpitz. Haben Sie schon mal mit den verfügbaren Transparenzdatenbanken von Google, Meta et cetera gearbeitet? Bringen die was? Sind da die Daten, die Sie brauchen, drin?
Edda Humprecht [00:42:56] Es ist ja nicht so, dass da einfach Datenbanken zur Verfügung stehen und man kann das sozusagen alles abgreifen. Sondern man stellt einen Antrag. Man braucht dann auch ein Ethikvotum. Das ist generelle Praxis und das ist auch gut, aber es sind natürlich alles Dinge, die Zeit kosten. Man braucht dann auch als deutsche Universität das rechtliche Einverständnis mit Daten zu arbeiten oder mit Institutionen, die dann in den USA sind. Und dann gibt es ein Gremium, das darüber entscheidet, zum Beispiel im Fall von Meta. Und dann kann man diese Daten bekommen nach längerer Wartezeit. Und das ist dann aber immer noch limitiert. Zum Beispiel ist es immer noch sehr problematisch, auf visuelle Inhalte zuzugreifen. Grundsätzlich sind für viele Plattformen, nicht alle, aber viele ja diese APIs sehr stark eingeschränkt. Und man muss eben klar machen, das gibt der DSA vor, dass dem ein gesellschaftlich relevantes Thema zugrunde liegt, weshalb man sich damit beschäftigen muss. Das ist ja auch sehr richtig. Aber was die Plattformen dann tatsächlich zur Verfügung stellen, hat nur einen sehr geringen Umfang, ist nicht unbedingt immer das, was wir brauchen. Und es hilft uns auch nicht unbedingt, dann auch nachzuvollziehen, welche Algorithmen hier am Werk waren. Weil das auch intransparent ist und wir das ad hoc schlecht vergleichen können zum Beispiel mit anderen Zeiträumen. Deswegen sind im Moment, wie Julia Metag gesagt hat, Datenspenden für uns eigentlich der bessere Weg. Auch wenn das häufig nicht skalierbar ist, um tatsächlich zu sehen, was Nutzende präsentiert bekommen auf diesen Plattformen.
Moderator [00:44:39] Okay, also begrenzt hilfreich bisher. Herr Müller-Terpitz, hier gibt es noch eine Frage. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International hatten vor einigen Wochen noch den Zugang zu X-Daten erstritten. Und dann gab es eine Klage von X dagegen, und dann wurde der damalige Richter für befangen erklärt. Was bedeutet das für künftige ähnlich gelagerte Fälle?
Ralf Müller-Terpitz [00:45:03] Also ich würde jetzt erst mal sagen, wenig. Denn die Befangenheit wird ja durch das Gericht selbst ausgesprochen, wenn tatsächlich ein Befangenheitsgrund vorliegt. Also das kann X nur beantragen. Aber ob eine Befangenheit vorliegt, muss letztlich das Gericht selbst, der Spruchkörper selbst entscheiden. Und in diesem Fall hat wohl tatsächlich ein Befangenheitsgrund vorgelegen. Ich weiß jetzt nicht, welcher. Ich vermute mal, dass der Richter vielleicht vorher in einer bestimmten Art und Weise publiziert hatte, die sozusagen seine Rechtsauffassung eingeengt hat. Ich weiß es aber nicht. Aber daraus kann man überhaupt keine Schlussfolgerung für künftige Fälle ziehen, sondern das betrifft ja nur die konkrete personelle Zusammensetzung dieses Spruchkörpers, der dann eben in einer anderen Zusammensetzung weiter entscheidet. Aber es bedeutet überhaupt nichts für spätere Verfahren.
Moderator [00:45:49] Dankeschön. Ich habe noch eine Frage auch an Sie, und zwar zur Gefahr des Overblockings. Also da gibt es ja diese These: Es gibt eine starke Regulierung von Sachen, die man online unter Strafe stellt. Da gibt es dann auch hohe Strafen, zum Teil knappe zeitliche Fristen, vielleicht auch viele Beschwerden, gegebenenfalls auch öffentlichen Druck, dem zu entsprechen. Vielleicht jetzt weniger seit Trump, aber zumindest vorher. Und da gibt es dann die These, dass Plattformen lieber zu viel als zu wenig löschen und dass dann auch viele legale Aussagen gelöscht werden. Was dann natürlich ein Problem und eine Einschränkung der Meinungsfreiheit wäre. Kann man abschätzen, wie viel da passiert, wie groß das Problem ist? Im Juristischen geht es ja auch oft um Abwägung. Wie kann man da die Abwägung treffen zwischen: nicht zu viel regulieren, aber trotzdem das kriegen, was illegal ist?
Ralf Müller-Terpitz [00:46:40] Also die Frage stellen Sie jetzt an mich, obwohl sie eigentlich einen starken empirischen Kern hat. Von daher bin ich da auch auf die Mithilfe von Frau Humprecht und Frau Metag angewiesen. Aber mein Eindruck als Beobachter ohne vertiefte empirische Kenntnis ist eigentlich, dass die Plattformen viel zu wenig löschen. Dass eigentlich viel mehr gelöscht werden müsste, sodass die Gefahr des Oberblockings jetzt faktisch nach meinem Eindruck nicht besteht. Normativ ist der Gefahr dadurch Rechnung getragen, dass wir es hier ja tatsächlich mit Abwägungsprozessen zu tun haben und dass sich im Zweifel natürlich dann ein Beitrag, der durch die Meinungsfreiheit gedeckt ist, auch durchsetzen muss, also nicht gelöscht, nicht gesperrt werden darf. Und Sie haben ja im DSA auch dann Regelungsmechanismen, Streitschlichtungsmechanismen, die letztlich sicherstellen sollen, dass für den Fall, dass es doch zu einer Löschung gekommen ist, die aus Sicht des Nutzers ungerechtfertigt war, darüber ein Verfahren eröffnet werden kann, gegebenenfalls mit dem Ziel, dass der Inhalt wieder online geschaltet wird. Sie haben im EMFA ich sage es jetzt mal untechnisch, die Privilegierung von journalistisch-redaktionellen Inhalten, wo an die Sperrung beziehungsweise Löschung solcher Inhalte besondere Anforderungen gestellt sind. Also ich glaube, da reagiert das europäische Recht eigentlich schon ganz gut auf dieses Spannungsverhältnis. Aber das eigentliche Problem aus meiner Sicht ist, dass es auch da nicht zu einem Vollzug kommt, beziehungsweise dass die Vollzugsdefizite auf Seiten der Plattformen, dass sie eben viel zu wenig sperren oder löschen, eben seitens der Behörden dann nicht entsprechend tatkräftig angegangen werden.
Moderator [00:48:17] Frau Metag, haben Sie noch eine Ergänzung?
Julia Metag [00:48:20] Das entspricht auch dem, was wir empirisch wissen und was ja auch gerade vor ein paar Wochen noch mal ein großes Thema war, zumindest in den USA, mit dem Abschalten des Fact Checkings auf den Meta-Plattformen und Community Notes, die stattdessen eingesetzt werden sollen. Die empirische Lage zeigt, dass eher weniger als mehr gelöscht wird. Und dass der Grundsatz Meinungsfreiheit dann doch eben häufig für höherwertig gehalten wird und deswegen weniger gelöscht wird, als vielleicht eigentlich notwendig wäre.
Edda Humprecht [00:49:07] Man hat eigentlich den Eindruck, dass es eher ein vorgeschobenes Argument ist, weil das natürlich auch sehr ressourcenintensiv ist. Wir haben das selber auch erlebt in einem Projekt zu YouTube, Desinformation auf YouTube, wo wir dann Inhalte analysiert haben und die gemeldet haben. Das hat sehr, sehr lang gedauert bei Inhalten, bei denen es ganz klar war, dass es sich um Desinformation handelt. Häufig sind das ja auch so Grenzfälle, die sind natürlich ein bisschen schwerer zu widerlegen. Aber bei Inhalten, bei denen es ganz klar war, das hat sehr, sehr lang gedauert, ein halbes Jahr oder mehr, bis die entfernt wurden. Manche wurden dann auch gar nicht entfernt. Da wurde uns nur mitgeteilt, dass die Algorithmen so manipuliert wurden, dass die Inhalte nicht mehr so sichtbar sind. Das ist also auch eine Reaktion darauf. Und auch in dem Statement von Zuckerberg dazu, zu diesem Umgang mit Fact Checking und Community Notes, da hat er ja quasi Europa Zensurmechanismen vorgeworfen. Da sieht man auch, dass das eigentlich wenig mit der tatsächlichen empirischen Situation zu tun hat, sondern eher ein politisches Argument ist.
Moderator [00:50:13] Schön. Jetzt haben wir schon zwölf. Ich würde gern, wenn wir es schaffen, noch vielleicht zwei, drei Fragen durchkriegen. Ich weiß nicht, ob Sie, Herr Müller-Terpitz, direkt losmüssen. Sie haben ja noch einen Anschlusstermin. Vielleicht fange ich mal mit Ihrer Frage an. Das hatten Sie im Eingangsstatement schon angesprochen, Wahlbeeinflussung aus dem Ausland, was ist da eigentlich jetzt im Wahlkampf auf Social Media erlaubt und was nicht? Es gab ja immer die Debatte darüber, ob dieses Gespräch zwischen Elon Musk und Alice Weidel irgendwie illegal ist, ob das Wahlbeeinflussung ist, ob das quasi eine Wahlspende jetzt nicht monetärer Art, aber quasi durch Aufmerksamkeit ist. Was ist da erlaubt? Und ist jetzt dieses Gespräch irgendwie problematisch gewesen oder ist es nicht eigentlich erlaubt, sich da zu unterhalten?
Ralf Müller-Terpitz [00:51:00] Also nach meinem Eindruck war das erlaubt. Ich habe das ja eben schon kurz angerissen. Erlaubt ist es so oder so. Die Frage ist eigentlich nur, muss ich das in einer bestimmten Art und Weise kennzeichnen, eben als eine Wahlwerbung? Oder muss ich es gegebenenfalls auch, was die Zuwendung sozusagen einer Sachleistung ja anbelangt, als eine Art Wahlkampfspende transparent machen? Das ist die eigentliche Frage. Dass das Gespräch inhaltlich per se zunächst mal erlaubt ist, ich glaube, darüber kann man nicht diskutieren, sondern nur über die Frage, wie es einzuordnen ist. Ist das jetzt tatsächlich eine Wahlwerbung, die möglicherweise als verdeckte Wahlkampfspende hätte transparent gemacht werden müssen? Oder durch entsprechende Hinweise sozusagen in dem Format, dass es sich hier um Wahlwerbung handelt? Ist da also möglicherweise gegen Transparenzpflichten verstoßen worden? Das ist der Kern der Frage. Aber auch da würde ich im Moment dazu tendieren, nach allem, was ich gesehen und gehört habe aus diesem Gespräch, dass das nicht der Fall ist. Da kommen wir aber eben wieder in diese juristische Unbestimmtheit hinein. Ich habe ja auf die Targeting-Verordnung verwiesen, die eine Definition von politischer Werbung enthält und eben aus politischer Werbung explizit wieder redaktionelle Inhalte herausnimmt. Also was ist das jetzt, wenn sich Herr Musk als Eigentümer von X mit einer deutschen Politikerin trifft und mit ihr ein Interview führt? Wenn das Ganze im Radio oder im Fernsehen stattfände, würden wir sofort sagen, das ist ein redaktioneller Inhalt und natürlich zulässig. Das würde hier, glaube ich, schon ein Stück weit parallelisieren, dass so ein Gespräch schon gar nicht in den Anwendungsbereich überhaupt dieser Transparenzbestimmungen fällt.
Moderator [00:52:34] Dann eine Frage, ich weiß nicht, wer von Ihnen die am besten beantworten kann, ich frage mal Sie, Frau Metag. Wir hatten ja eben noch mal über den Datenzugang geredet, wie das da jetzt eigentlich in den USA aussieht. Also da gibt es jetzt keinen Digital Services Act, CrowdTangle wurde geschlossen. Kommen die da überhaupt noch an gescheite Daten? Oder läuft das alles auch über Datenspenden und so weiter.
Julia Metag [00:52:58] Ja, soweit ich weiß, ist die Situation ähnlich wie hier. Also die sind genauso von den Regelungen der Plattformen, die es eben bislang gibt, abhängig und haben jetzt keine weiteren Möglichkeiten, da auf Daten zuzugreifen. Und sie versuchen es mit den gleichen anderen Methoden, Einblicke zu bekommen und Forschungsprojekte durchzuführen. Es gibt natürlich auch Initiativen, die sich da organisieren, um einen besseren Datenzugang zu erhalten und ähnliche rechtliche Vorgaben wie den DSA hier in Europa durchzusetzen. Aber im Moment, glaube ich, ist die Situation dafür, so etwas durchzubekommen, natürlich nicht unbedingt förderlich.
Moderator [00:53:51] Gut. Frau Humprecht, an Sie habe ich jetzt noch die letzte Frage. Die ist vielleicht die schwierigste. Ich beziehe mich noch mal auf Ihr Eingangsstatement. Sie sagten, dass zu viel Panikmache, Berichterstattung oder einfach Aufmerksamkeit auf das Thema Desinformation auch schädlich sein kann. Was ist denn jetzt eigentlich die Rolle von Medien in der Verbreitung von, ich sage mal, inkorrekten Informationen? Worüber muss man berichten? Wann ist es wichtiger, falsche Informationen nicht weiterzugeben? Hat beispielsweise alles, was Elon Musk sagt, Neuigkeitswert und muss berichtet werden?
Edda Humprecht [00:54:26] Ja, das ist eine sehr wichtige Frage, denke ich. Und eine, die ebenfalls nicht so leicht zu beantworten ist. In jedem Fall würde ich sagen, es ist eine Abwägung. Ist diese Aussage so wichtig, dass wir jetzt darüber berichten und das richtigstellen? Wie gesagt, diese Form von Fact Checking hat durchaus Effekte, kann durchaus helfen, aber auf der anderen Seite eben auch dazu führen, dass Inhalte auch Sichtbarkeit bekommen und von Personen gesehen werden, die sonst gar nicht darauf aufmerksam geworden wären. Und wir wissen ja auch, dass konstante Wiederholung von bestimmten Narrativen schon auch dazu führen kann, dass sich bestimmte Narrative verfestigen bei den Bürgerinnen und Bürgern. Was hier, glaube ich, wichtig ist, ist die Art und Weise, wie dieses Fact Checking oder die Berichterstattung darüber erfolgt. Da gibt es ja auch bereits Hinweise für Journalistinnen und Journalisten, zum Beispiel von Lewandowsky et al., das Handbuch zum Umgang von Medien mit solchen falschen Informationen. Ein Hinweis hier ist zum Beispiel, dass man die Falschinformation als solche nicht noch mal wiederholen sollte, zum Beispiel im Titel. Das wird trotzdem ganz häufig gemacht. Besser ist es, darauf hinzuweisen und auch die Quelle zu nennen und dann zu argumentieren und aufzuzeigen, warum etwas falsch ist, auch mit Bezug auf die Quellen, auf die man sich stützt. Das ist ganz wichtig. Nichtsdestotrotz, denke ich, ist es nach wie vor wichtig, auch über die falschen Aussagen zu berichten und ein gewisses Bewusstsein in der Bevölkerung dafür zu schaffen, dass es eben diese Falschaussagen gibt, dass es auch bestimmte Motivationen der Akteure gibt, die gezielt einzusetzen. Gerade bei Trump muss man sich dann immer die Frage stellen, wie gewichtet man das? Und will man tatsächlich über alles berichten? Denn was wir bei Trump sehen als Phänomen, was sehr interessant ist, dass es, obwohl die politische Lüge als solche nichts Neues ist, bei Trump noch mal eine andere Qualität hat, weil es keine Konsequenzen hat. Obwohl das schon in seiner ersten Amtszeit ganz klar war, dass er tatsächlich ständig auch gezielt Falschinformationen einsetzt, ist er wiedergewählt worden. Und das ist natürlich etwas, was große Fragen auch aus demokratietheoretischer Sicht aufwirft. Und deswegen ist es, denke ich, da ganz wichtig, dort immer abzuwägen und sich zu fragen, welche Informationen müssen jetzt wirklich noch mal wiederholt werden?
Moderator [00:57:02] Ja, danke schön. Sie hatten kurz das Handbuch erwähnt von Lewandowsky et al. Das ist das Debunking Handbook, glaube ich. Ich habe auf die Schnelle keinen Link gefunden, aber wenn Sie nach Lewandowsky mit Y und Debunking Handbook googeln, dann finden Sie das. Gut, dann vielen Dank Ihnen erstmal. Jetzt haben wir auch ein bisschen überzogen. Vielen Dank an die Journalistinnen und Journalisten für die Fragen und natürlich auch Sie, Frau Humprecht, Frau Metag, Herr Müller-Terpitz für Ihre Zeit und dafür, dass Sie sich die Zeit genommen haben, die Fragen zu beantworten. So schnell wie möglich stellen wir heute die Aufzeichnung der Veranstaltung auf unserer Homepage online. Und voraussichtlich am späten Nachmittag finden Sie da dann auch das Transkript. Falls Sie eine Audioaufzeichnung oder eine Videodatei oder auch schon das schnelle, maschinell erstellte Transkript haben wollen, dann finden Sie in der Remindermail von heute Morgen einen Link. Darüber können Sie das abrufen. Dann bleibt mir nur noch, vielen Dank zu sagen für Ihre Zeit. Ich wünsche Ihnen noch einen schönen Tag und auf Wiedersehen.

