Moderator [00:00:01] Hallo liebe Journalistinnen und Journalisten, herzlich willkommen zu unserem virtuellen Press Briefing zur Regulierung von sozialen Medien und Tech-Giganten. Ich bin Bastian Zimmermann, ich bin Redaktionsleiter beim Science Media Center und mit mir habe ich hier noch Frau Wendehorst, Herrn Katzenbach und Herrn Kettemann als Expertinnen und Experten. Herzlich Willkommen, schön, dass Sie da sind. Ich stelle Sie gleich noch kurz vor. Zum Thema: In den vergangenen Wochen gab es einige Schlagzeilen zu Prozessen und Strafen gegen Anbieter sozialer Medien und Tech-Giganten. Meta wurde beispielsweise auf Grundlage des Digital Markets Acts zu 200 Millionen Euro Strafe verurteilt, Tiktok auf Grundlage der Datenschutzgrundverordnung zu 530 Millionen Euro. Aber die Debatte, wie soziale Medien reguliert werden sollten, ob sie härter reguliert werden sollten, gibt es ja schon lange. Gerade durch diese Strafen und Verfahren macht es jetzt den Eindruck, als würde in dem Bereich einiges passieren. Ob dieser Eindruck stimmt, was das bedeutet, was die Hintergründe sind, wie es vielleicht weitergehen könnte und natürlich was Sie da draußen zu dem Thema bewegt, das möchten wir heute in unserem Press Briefing besprechen. Vor der Vorstellung noch kurz der Hinweis: Wenn Sie draußen Fragen haben, stellen Sie die bitte, es geht ja darum, dass Sie Ihre Fragen loswerden können. Nutzen Sie bitte die Fragefunktion von Zoom, also unten den F&A-Knopf. Dann haben wir das einheitlich an einer Stelle, dann ist es übersichtlicher, als wenn es mal im Chat steht, mal in den Fragefunktionen. Zu unseren Fachleuten, ich stelle sie kurz vor, ich mache das alphabetisch, deswegen fange ich an mit Professor Christian Katzenbach. Er ist Professor für Kommunikations- und Medienwissenschaft und Leiter des Labs "Platform Governance, Media and Technology" am Zentrum für Medien-, Kommunikations- und Informationsforschung an der Universität Bremen und auch Mitglied des Expert:innen-Boards Actors and Behavior Policies bei Meta. Professor Matthias Kettemann ist Programmleiter des Forschungsprogramms "Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen" am Leibniz-Institut für Medienforschung, Hans-Bredow-Institut in Hamburg und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts an der Universität Innsbruck in Österreich. Professorin Christiane Wendehorst ist Professorin für Zivilrecht und stellvertretende Institutsvorständin am Institut für Digitalisierung und Recht an der Universität Wien in Österreich und [Wissenschaftliche Direktorin] des European Law Institute. Wie Sie den Titeln entnehmen können, sind Frau Wendehorst und Herr Kettemann heute für die juristische Perspektive zuständig. Herr Katzenbach hat den kommunikationswissenschaftlichen Blick auf Entstehung, Steuerung und auch Regulierung von Plattformen. Wie immer kommen wir zu kurzen Eingangsfragen und da möchte ich mit Ihnen anfangen, Frau Wendehorst. Können Sie uns einen kurzen Überblick geben: Was sind momentan die wichtigsten Digitalgesetze und Regulierungen, die große Plattform betreffen?
Christiane Wendehorst [00:03:03] Ganz herzlichen Dank und schön, dass ich hier sein darf. [...] Die Plattformregulierung in der EU, kann man sagen, ist in zwei großen Wellen gekommen. Wir hatten die erste Welle so um 2018, 2019 herum. Das waren dann Rechtsakte wie die Plattform-to-Business-Verordnung oder auch eine Novellierung der Verbraucherrechte-Richtlinie oder die berühmte Digital-Single-Market-Richtlinie, wo es um Urheberrecht ging und weitere Rechtsakte. Dann kam die viel berühmtere zweite Welle um 2022 bis 2024 herum und das ist jetzt die Plattformregulierung, über die meistens alle reden. Das ist das sogenannte DSA Package, also vor allem der Digital Markets Act, der Digital Services Act und jetzt was ich immer so gerne die TNT-Verordnung nenne, die Verordnung über Transparenz und Targeting politischer Werbung. Ich werde nur die drei kurz beleuchten, weil ich nicht so viel Zeit habe, aber kann gerne auch Fragen zu den übrigen Rechtsakten beantworten. Fangen wir mal mit dem Gesetz über digitale Märkte, dem sogenannten DMA, an. Da geht es darum, einen wettbewerbsfähigen und – was auch immer das heißt – gerechten digitalen Sektor zu schaffen. Der DMA richtet sich an sogenannte Torwächter. Große Online-Plattformen gelten als Torwächter, Gatekeeper im Sinne des DMA, wenn sie bestimmte Schwellenwerte überschreiten, also einen Jahresumsatz von mindestens 7,5 Milliarden Euro beispielsweise, mindestens 45 Millionen Nutzer in der EU, [und] weitere Schwellenwerte [überschreiten]. [Bei] diesen sogenannten Torwächtern, die dann auch von der EU-Kommission offiziell so eingestuft werden, gibt es immer Streit darum, wer da eingeordnet wird und wer nicht, die müssen bestimmte Dinge gewährleisten. Sie müssen zum Beispiel Dritten erlauben, mit den Diensten des Torwächters in bestimmten Situationen zu interoperieren oder sie müssen gewerblichen Nutzern Zugang zu den Daten geben, die bei der Nutzung der Torwächterplattform generiert werden. Oder sie müssen gewerblichen Nutzern die Möglichkeit geben, ihre Produkte zu bewerten und außerhalb der Torwächter-Plattform Verträge zu schließen. Sie dürfen bestimmte Dinge nicht tun, sie dürfen zum Beispiel nicht ihre eigenen Produkte und Dienstleistungen beim Ranking gegenüber ähnlichen Dienstleistungen bevorzugen und vieles andere mehr. Wenn man dagegen verstößt, gibt es empfindliche Geldbußen bis zu einem Höchstbetrag von zehn Prozent des weltweit erzielten Gesamtumsatzes oder bei wiederholter Zuwiderhandlung auch von 20 Prozent und ähnliches. Es kann also sehr drastische Konsequenzen haben. Der Vorteil dieser Sanktionen gegenüber dem klassischen Wettbewerbsrecht ist, dass es ein ex-ante-Mechanismus ist. Klassisches Wettbewerbsrecht kommt häufig erst nachträglich. Der DMA ist schon ex ante, der versucht schon, schädliche Marktkonzentration und unfaires Verhalten zu verhindern. Der DSA, der Digital Services Act, hat jetzt ein ganz, ganz breites Spektrum von verschiedenen Regelungen, ist auch umfangreicher als der Digital Markets Act. Ich kann hier jetzt nur wenige Punkte herausheben. Wichtig zu sagen ist: Es ist eine asymmetrische Regulierung, das heißt, die Intensität der Regulierungen ist abhängig davon, wie groß eine Plattform ist. Erfasst werden sogenannte Vermittlungsdienste, das können Hostingdienste sein, das können Online-Marktplätze sein, das können soziale Netzwerke sein, Video-Sharing-Plattformen und was auch immer. Hier ist [eine] asymmetrische Regulierung: Je größer ein Anbieter, desto schärfere Pflichten treffen sie. Worum geht es insgesamt, es geht um die Bekämpfung rechtswidriger Inhalte im weitesten Sinne, da gehören auch nicht den Produkt-Sicherheitsvorschriften entsprechende Produkte und Dienste dazu, da gehört aber auch gegebenenfalls die gegen die Gesetze verstoßende Hassrede dazu und vieles mehr. Diese rechtswidrigen Inhalte sollen mit einer ganzen Reihe von Maßnahmen hintangehalten werden. Es geht um Meldemöglichkeiten, es geht um vertrauenswürdige Hinweisgeber, es geht um Nachfolgbarkeit von Unternehmen. Es sollen auch die Rechte der Nutzerinnen und Nutzer gestärkt werden, indem sie zum Beispiel Entscheidungen über die Online-Moderation anfechten können oder indem sie besseren Zugang zu Behörden haben, besseren Zugang zu Daten, zu Forschungsergebnissen haben und es geht auch um Transparenz in verschiedensten Zusammenhängen. Insgesamt, das ist vielleicht die dritte Säule, geht es um Risikobewertung und Risikominimierung. Auch hier [gibt es] eine breite Palette unterschiedlicher Maßnahmen. Ganz große Plattformen müssen zum Beispiel regelmäßige Risiko-Bewertungen vornehmen, müssen systemische Risiken bewerten und müssen diese Risiken auch managen und verringern. Wir haben zahlreiche Vorschriften, die speziell Minderjährige schützen sollen und wir haben zahlreiche Vorschriften, die die Transparenz und die Fairness von Online-Werbung, von Empfehlungsmaschinen und ähnliches betreffen. Auch hier [gibt es] zahlreiche Möglichkeiten, Geldbußen zu verhängen. Darauf aufbauend hat auch der Digital Services Act schon potenziell politische Werbung erfasst oder Werbung, die politisch wirkt. Aber da das nicht ausgereicht hat, hat man jetzt kürzlich noch eine Verordnung nachgelegt was ich immer die TNT-Verordnung nenne, die Verordnung zu Transparenz und Targeting politischer Werbung. Die soll sicherstellen, dass Bürgerinnen und Bürger besser in der Lage sind, Entscheidungen über Wahlen zu treffen. Es soll nicht der Inhalt der Wahlwerbung reguliert werden, aber es soll das Wie der Wahlwerbung reguliert werden. Das heißt, es geht darum, dass man schon erkennen kann, dass es sich bei einer Werbung um politische Werbung handelt, wer sie bezahlt hat, in welchem Zusammenhang diese Werbung steht. Es sollen zusätzliche Informationen auch über Werbung offengelegt werden und vieles ist einfach nur noch unter strengen Bedingungen zulässig. Zum Beispiel, wenn man derartige politische Werbung personalisiert, was ja das besonders Gefährliche ist auch unter dem Aspekt Desinformation und Gefahren für die Demokratie, dann müssen die Daten, aufgrund deren man personalisiert, von den betroffenen Personen erhoben worden sein. Man muss ausdrücklich vorher eingewilligt haben in diese politische Werbung; man darf nicht Daten von Minderjährigen verwenden. Und jetzt kommt [etwas], das ist besonders wichtig: Besondere Kategorien personenbezogener Daten, das sind diese sensiblen Daten im Sinne von Artikel 9 der Datenschutzgrundverordnung (DSGVO), darf man nicht personalisieren und da gehören auch die Daten dazu, die die politische Auffassung und die Weltanschauung einer Person betreffen. Das hat noch mal ganz tiefgreifende, einschneidende Wirkungen und es gibt noch weitere Einschränkungen, die ich jetzt hier nicht näher erklären kann, weil meine Zeit schon abgelaufen ist. Das ist eine ganz kurze Zusammenfassung. Ich kann gerne noch Fragen zu Details beantworten, aber ich will es jetzt mal dabei belassen.
Moderator [00:11:39] Ja, danke schön erstmal für den ersten Überblick und ich bin mir sicher, da kommen wir auf einiges zu sprechen. Dann machen wir erstmal weiter mit Herrn Kettemann und der Frage, wir hatten es eingangs schon angesprochen: Was sind aktuell die wichtigsten laufenden Verfahren gegen große Plattformen und Tech-Giganten und wie wird es da voraussichtlich weitergehen?
Matthias Kettemann [00:12:04] In der Tat, es gibt sowohl nach dem Rechtsakt zu digitalen Diensten als auch nach dem Rechtsakt zu digitalen Märkten, DSA und DMA, jeweils eine Anzahl von Verfahren gegen die großen Plattformen. Vor kurzem, Sie haben es sicher entweder den Medien entnommen oder selbst darüber geschrieben, kamen erste Entscheidungen wegen Verletzungen von Apple und Meta von ihren Pflichten nach dem Rechtsakt zu digitalen Märkten. Der DSA war ein bisschen früher in der Durchsetzung, jetzt ist auch der DMA zum ersten Mal in wichtigen Entscheidungen zu einer ersten Durchsetzung gekommen. Da wurden gegen Apple und Meta jeweils Bußgelder verhängt. Die Vorwürfe sind regelmäßig bei Apple als Gatekeeper, dass die Firma nicht ausreichend den Nutzer:innen die Möglichkeit gegeben hatte, außerhalb der App-Stores auf Angebote hinzuweisen, ohne Mehrkosten für die Nutzerinnen und Nutzer. Das heißt, man hat typischerweise die Gatekeeper-Rolle ausgenutzt und das war genau, warum man den DMA hat. Das muss ich wirklich sagen, sowohl in dem Fall von Apple als auch im Fall von Meta sind die Urteile genau in die Richtung gegangen, Entscheidungen, wie sich das der Gesetzgeber vorgestellt hat. Bei Meta war es so, dass das im November 2023 eingeführte Pay- oder Consent-Modell als hoch problematisch gesehen wurde. Also der Ansatz, dass man sagt, entweder zahlt man oder aber man zahlt quasi mit seinen Daten, das ist aus datenschutzrechtlicher Perspektive durchaus herausfordernd. Die Kommission hat dann auch festgestellt, dass dieses Modell nicht im Einklang mit dem DMA steht, man darf Nutzer:innen nicht dazu verpflichten, ihre personenbezogenen Daten einzusetzen, außer sie wollen ein weniger gutes Produkt beziehen. Diese Verfahren, die dauern wie gesagt längere Zeit, jetzt ist auch erst wieder die Möglichkeit für die Firmen, Beschwerde einzulegen, dann dauert das wieder einige Zeit, dann wird verhandelt und schlussendlich ist es ja oft so, dass es dann zu einer Lösung kommt, einer Verhandlungslösung. Das ist auch ein Punkt, den man vielleicht in dem Kontext mal ansprechen sollte, dass wir diese Verfahren immer weiter verfolgen sollten bis zum Ende und nicht nur kurzfristig auf die Schlagzeilen achten sollten. In dem Bereich genauso wie übrigens auch im Datenschutzbereich ist oft so, dass dann in der nächsten Instanz die Beträge deutlich herabgesetzt werden, nur das das dann nicht mehr ganz so spannend ist. Das heißt, schlussendlich muss man da schon schauen, wie wirklich dann der DSA, der DMA und auch noch immer das Datenschutzrecht umgesetzt wird. Da ist es ganz wichtig, auf Konsequenz zu achten. Aber das sind nicht alle Verfahren, die laufen. Es gibt noch weitere Verfahren allein auf dem DSA. Es sind auch Verfahren gegen Tiktok, gegen Ali Express, gegen Meta auch, gegen Temu. Nur als Beispiel das Temu-Verfahren zu nennen, das wurde im Juni 2024 eingeleitet. Da geht es im Kern darum, dass Temu, also Chinas Amazon, nicht mit europäischem Produkthaftungs- und Konsumentenschutzrecht konforme Produkte anbietet. Da gibt es auch einige spannende Youtube-Videos, wo Konsumentenschützer sich diese Produkte anschauen und dann merken, dass da einiges an Strom verlegt wird, wenn es da nicht sein sollte. Das heißt, da gibt es klassischerweise ein Risiko für die Konsumenten und die Kommission verfolgt Temu als Anbieter dieser Produkte. Ebenso wird seitens der Kommission angemerkt, dass Temu die Gestaltung des Dienstes auf eine Weise gestaltet, die suchterzeugend ist inklusive spielähnliche Belohnungsprogramme. Das kann negative Folgen auf das körperliche und geistige Wohlbefinden von Personen haben und dies wird unter dem DSA inkriminiert. Genauso Tiktok – um das noch anzusprechen. Da wurde ein förmliches Ermittlungsverfahren eingeleitet wegen Verdachts auf Wahlbeeinflussung, Wahlmanipulation im Kontext des Empfehlungssystems und der nicht ausreichenden Überwachung, wie Bots im Wahlkontext aktiv werden. Sie erinnern sich an einen rumänischen Fall. Da hat die Kommission übrigens, um das als ein weiteres Vorgehen zu zeigen, sehr schnell reagiert und die Firma aufgefordert, den Datenbestand zu freezen, um sicherzustellen, dass hier die Beweise entsprechend gesichert werden. Da muss man sich empirisch nachher die Frage stellen, inwiefern hier wirklich eine Beeinflussung stattgefunden hat. Das lässt sich gar nicht so leicht sagen, da mag dann vielleicht unser lieber Kollege Christian Katzenbach dazu noch sprechen. Jedenfalls ist es um einiges schwerer seitens der Kommission nachzuweisen, was illegitime Wahlbeeinflussung ist, als festzustellen, dass Temu schlechte Sachen verkauft. Ich komme zum Schluss meiner Einleitung. The proof of the pudding is in the eating, wie es so schön heißt. Das heißt, erst wenn wir sehen, wie das umgesetzt wird, werden wir sehen, wie effektiv die jeweiligen Normen sind. Gerade vor dem Hintergrund des aktuellen Drucks, der vom Weißen Haus ausgeübt wird und von den Akteuren, die dort aktiv sind, auf die Kommission, auf Europa, müssen wir, die wir uns für Recht und Ordnung einsetzen und für die Rechte der Konsument:innen und Bürger:innen, mit wachem Auge darauf achten, dass diese Normen auch weiterhin umgesetzt werden und müssen durchaus kritisch medial-wissenschaftlich diesen Prozess begleiten. Insofern ist das heutige Event eine großartige Sache. Vielen Dank.
Moderator [00:18:20] Ja, schön. Dann danke schön für Ihr Eingangsstatement. Bevor wir zum Eingangsstatement von Herrn Katzenbach kommen, noch einmal der Hinweis an Sie da draußen: Stellen Sie gerne Ihre Fragen hier. Also wir haben bisher noch keine. Wir haben von außen im Vorhinein schon ein paar bekommen, und ich habe auch ein paar eigene. Wir hätten genug Fragen für das ganze Press Briefing. Aber der Sinn soll ja auch sein, dass Sie Ihre Fragen loswerden können. Und damit zu Herrn Katzenbach mit der Frage: Verändert sich eigentlich jetzt etwas in der öffentlichen Wahrnehmung dieser Unternehmen? Und wie ist die Dynamik gerade zwischen den USA, die ja eher gegen Regulierung zu sein scheinen, und der EU, aus der jetzt verstärkt Regulierung kommt?
Christian Katzenbach [00:18:58] Ja, vielen Dank für die Frage und das Interesse. Nachdem die Kolleg:innen die regulatorische und rechtliche Situation sehr eindrücklich geschildert haben, würde ich jetzt ganz gerne noch einmal einen Bogen schlagen zu der gesellschaftlichen und politischen Debatte, auch vor einem bisschen längeren Zeithorizont, also ähnlich wie Christiane Wendehorst es mit den zwei Wellen ja auch gemacht hat. Und in vielerlei Hinsicht leben wir gerade in einer Umbruchphase, also sowohl in der [längeren] Perspektive von etwa zehn, 20 Jahren der digitalen Transformation, aber auch ganz aktuell in diesen Monaten, gerade mit Blick auf die Tech-Unternehmen. Und das betrifft interessanterweise derzeit nicht nur technologische Entwicklungen. Oft ist es ja getriggert durch die nächste große Technologie wie Generative AI, sondern gerade erleben wir eine Umbruchsphase vor allem aufgrund von regulatorischen, gesellschaftlichen und geopolitischen Fragen. Und aus meiner Sicht, was wir gerade erleben zwischen den USA und Europa, zwischen Tech-Unternehmen und Politik, ist eine Zuspitzung einer Auseinandersetzung, die wir eigentlich seit zehn Jahren mal mehr, mal weniger intensiv führen. Nämlich: Was ist die Rolle und die Verantwortung von Plattformen, von großen Tech-Unternehmen? Und wenn man jetzt viel über diese regulatorischen Aktivitäten spricht, dann würde ich ganz gerne einen Kontext hinzufügen. Und aus meiner Sicht ist der Hintergrund dieser zwei Wellen der Regulierungsaktivitäten, die Frau Wendehorst geschildert hat, eine Dynamik, ein gesellschaftlicher und politischer Konsens tatsächlich, der sich in zumindest Europa langsam etwa ab 2016 entwickelt und etabliert hat. Plattformen und Tech-Unternehmen müssen Verantwortung für die Inhalte und Interaktionen auf ihren Diensten übernehmen. Aber das war nicht immer so. Nicht immer hatten wir diese Perspektive oder diesen Konsens. In der Frühzeit von Social Media positionierten die Unternehmen sich sehr erfolgreich als vermeintlich neutrale Infrastrukturen. Wir Nutzer:innen seien verantwortlich für die Inhalte. Warum sollten die Unternehmen eingreifen? Das könnte ja auch Zensur sein. Und erst im Zuge der Debatte um Misinformation nach der ersten Trump-Wahl unter anderem und Hate Speech vor allem im Zusammenhang mit Migrationsfragen in Europa, ab Mitte der 2010er, drehte sich das hin zu diesem Konsens: Plattformen müssen Verantwortung übernehmen. Und dieser Konsens und der öffentliche und politische Druck, der damit einhergegangen ist, hatte mindestens aus meiner Sicht zwei Konsequenzen. Das eine sind diese Regulierungswellen, die wir in Europa gesehen haben, die gewissermaßen versucht haben, diesen Konsens, Plattformen müssen Verantwortung übernehmen, in Regulierung zu übersetzen – was nicht einfach ist, aber ich denke, Europa ist da auf einem sehr guten Weg. Und zweitens haben wir aber auch gesehen, dass die großen Plattformen durchaus selbst substanziell in Regeln, Ressourcen und Routinen der Inhaltemoderation investiert haben, um sich zumindest etwas in Richtung von Verantwortung zu bewegen. Sehr zögerlich, nicht ausreichend. Aber sie haben Regelsysteme entwickelt, in denen sie zwischen Hassrede und erlaubten Äußerungen unterschieden haben. Sie haben Teams zum Inhalte-Monitoring aufgebaut und beauftragt. Aber jetzt, und damit kommen wir zu der aktuellen Umbruchphase, dreht sich das wieder. Mit Musks Übernahme von Twitter, mit der zweiten Amtsperiode von Trump und mit dieser nun wirklich unheilvollen Allianz von US-Technologiekonzernen und US-Regierung wird machtvoll der Rückwärtsgang eingelegt, gewissermaßen der Backlash zum Techlash. Aus dieser Perspektive wird Content Moderation wieder als Zensur gesehen. Fact Checking wird beendet. Und für die Unternehmen, und das ist, denke ich, sehr wichtig zu sehen, ist das nicht nur eine ideologische Frage, gar nicht primär, sondern vor allem eine wirtschaftliche. Content Moderation wirklich systematisch und verantwortungsvoll im großen Maßstab und wirklich global zu machen, ist sehr, sehr teuer. Und das ist derzeit die entscheidende Frage aus meiner Sicht. Und damit fällt die Umsetzung der neuen EU-Digitalregulierung in eine Zeit, in der sie stärker benötigt [wird] denn je und als man sich das sicher während der Gesetzgebung gedacht hat. Wir kommen hier nun in eine Auseinandersetzung zwischen EU- und US-Akteuren, in der sich die durchaus gemeinwohlorientierte Regelsetzung, wie Matthias sie eben beschrieben hat, auch vor dem Hintergrund neuer geopolitischer Konflikte beweisen muss. Und damit lasse ich es erst einmal stehen. Ich glaube, wir kommen dann sicher in ein Gespräch darüber, was das bedeuten kann, was die Wissenschaft vielleicht auch empirisch dazu beitragen kann und welche Herausforderungen dabei aber auch bestehen.
Moderator [00:23:13] Ja, vielen Dank Ihnen erst einmal. Jetzt können wir in eine etwas offenere Fragerunde kommen und eine Frage, die wir im Vorhinein bekommen haben, passt auch ganz gut zu dem, woüber Sie gerade gesprochen haben, Herr Katzenbach. Die Frage war jetzt explizit an Sie gestellt, Frau Wendehorst, und zwar mit Blick auf die Prozesse gegen Tech-Unternehmen in den USA. Sehen Sie dort Anzeichen politischer Einflussnahme durch die Trump-Administration?
Christiane Wendehorst [00:23:37] Ja, also ich glaube, wir alle lesen die Medien, und ich habe da jetzt keine weiteren Insider-Informationen über das hinaus, was wir alle täglich lesen. Aber ja, ich glaube es ist schwer zu übersehen, dass hier versucht wird, doch auch auf höchster Ebene Einfluss zu nehmen auf die Rechtsdurchsetzung in Europa. Man muss ja sehen, die Rechtsdurchsetzung in Europa, das sind immer drei Ebenen. Die erste Ebene ist einmal: Ist ein Rechtsakt überhaupt anwendbar auf Unternehmen, die im Ausland sitzen? Und da haben wir seit der Datenschutzgrundverordnung bei allen europäischen Rechtsakten eben das, was aus den USA und China gerne die sogenannte extraterritoriale Wirkung genannt wird, das aber keine extraterritoriale Wirkung ist. Sondern das besagt einfach, [dass] jemand, der hier in Europa Business machen will, der hier europäische Verbraucher und Verbraucherinnen adressieren will, der Daten in Europa sammeln will, auch europäischer Regulierung unterworfen ist. Das ist einmal die erste Ebene. Zweite Ebene, das sind die Durchsetzungsmechanismen. Und hier müssen wir in den einzelnen Rechtsakten sehr genau hinschauen, wie sind die Durchsetzungsmechanismen gestaltet? Da geht es dann um so Fragen wie: Wer ist überhaupt zuständig? Sind das nationale Behörden? Sie kennen das alles bei der Datenschutzgrundverordnung, zum Beispiel dieses Hickhack mit den irischen Behörden, die dann zuständig sind für bestimmte Dinge, und es funktioniert dann besser oder schlechter. Da soll jetzt auch eine Neuregelung kommen, aber auf die warten wir alle noch, und manche sagen, sie soll eine Verschlechterung darstellen. Oder ist es die EU-Kommission, die gleich zuständig ist, insbesondere für die großen Akteure? Oder auch, welche Sanktionsmöglichkeiten haben wir? Das gehört alles zu diesem komplexen Durchsetzungsmechanismus. Und dann kommt aber jetzt als dritte Ebene, und das macht es so kompliziert, die höchste politische Ebene dazu. Wie agiert man in einer Zeit globaler Spannungen und wie positioniert man sich als EU in einer Situation, wo ganz deutlich hier Druck ausgeübt wird, bestimmte Rechtsakte zurückzunehmen oder zumindest nicht in voller Härte durchzusetzen. Wir sehen hier ein Vortasten aller Seiten, und es bleibt spannend abzuwarten, wohin sich das entwickeln wird.
Moderator [00:26:18] Herr Kettemann, da würde mich auch noch Ihre Einschätzung interessieren, nicht nur die politische Einflussnahme, auch generell: Wie kann man eigentlich diese Diskrepanzen zwischen unterschiedlichen Gesetzen unter einen Hut bringen? Also EU-Regulierung im Vergleich zum US-amerikanischen Verständnis von Meinungsfreiheit nach dem First Amendment zum Beispiel. Wie geht das unter einen Hut, oder muss das vielleicht gar nicht unter einen Hut?
Matthias Kettemann [00:26:41] Das Ironische ist, dass diejenigen, die so auftreten als die größten Verfechter der Meinungsäußerungsfreiheit in Wirklichkeit eine unglaublich dünne Haut haben. Es gibt da schöne Studien, die belegen, dass, sobald man auf X Kritik an Musk ausübt, fällt auf ganz wundersame Weise das Engagement einfach. Man hat viel weniger Kontakte, man wird weniger empfohlen. Das ist aber sehr fern von dieser libertären Konzeption einer Meinungsäußerungsfreiheit, wo alles gesagt werden darf. Im Kern geht es darum, dass aktuell die Chefs der großen Kommunikationsplattformen es verstanden haben, dass sie einen Alliierten im Weißen Haus haben, der gut darauf reagiert, wenn sie seine Botschaften verbreiten. Eine dieser Botschaften ist: Dieses böse Europa versucht, amerikanische Innovationskraft zu bändigen. Die schaffen nicht etwas Eigenes, aber die wollen uns zu Tode regulieren. Und dieser Ansatz, der ist natürlich falsch, aber er wird bewusst eingesetzt von Musk, von Zuckerberg, um im Weißen Haus Resonanz zu finden. Da muss Europa jetzt durch. Und ich glaube, es gibt schon erste Indizien dafür, dass das vielleicht nicht alles ganz so heiß gegessen wird, wie es gekocht wird. Auch die Tatsache etwa, dass der Zuckerberg als er seine Änderungen in der Moderation bekannt gegeben hat und als er auf Fox News seinen neuen Ex-George-W.-Bush-Mitarbeiter als Global Policy Chief vorgestellt hat – im Hintergrund hat er ganz unauffällig die Risiko-Assessments nach dem DSA adaptiert und neu abgegeben. Das heißt, die amerikanischen Unternehmen tun jetzt aktuell so, als wäre ihnen alles egal, aber in Wirklichkeit […] gehen sie davon aus, dass europäisches Recht weiterhin relevant ist für sie. Wir brauchen da, glaube ich, gar nicht so philosophisch zu werden und eine große Debatte zwischen Amerika und Europa mit Blick auf Meinungsäußerungsfreiheit zu beginnen. Im Kern ist das aktuell sehr viel mehr Politik als Philosophie, würde ich meinen.
Moderator [00:29:06] Ja, vielen Dank für die erste Einschätzung. Dann habe ich noch eine Frage an Herrn Katzenbach und dann sehe ich, haben wir auch schon einige Fragen von außen bekommen in der Zwischenzeit. Herr Katzenbach, vielleicht können Sie einmal kurz zwei Sätze zu dem Platform Governance Archive sagen, das Sie ja unter anderem betreiben. Und was können Sie da für interessante Entwicklungen beobachten? Wie entwickeln sich die Richtlinien der Plattformen in den letzten Jahren?
Christian Katzenbach [00:29:31] Ja, vielen Dank für die Frage. Ich mache den Link gerade mal in den Chat. Das Platform Governance Archive ist eine Webseite und ein Datensatz oder Datensätze, die wir aufgebaut haben, als wir die Regeln der Plattformen untersucht haben, also die Community Guidelines zum Beispiel von Facebook und von Instagram, die eben solche Definitionen von verbotener Hassrede auf der Plattform oder von Misinformation vornehmen. All diese Plattformen haben in den vergangenen inzwischen fast 20 Jahren bei den meisten oder bei den großen alten teilweise auch einfach rechtliche Dokumente wie allgemeine Geschäftsbedingungen oder Privacy Policies, aber inzwischen eben auch sehr ausbuchstabierte Regeln für Inhalte und Interaktionen auf der Webseite entwickelt. Und [diese haben sie] vor allem auf Druck auch durch Öffentlichkeit, Politik, Journalist:innen auf ihre Webseiten gestellt. Und wir beobachten das sehr genau und sammeln die Daten. Und inzwischen haben wir sogar so ein Live-Tracking gewissermaßen, wie die sich verändern. Wir scrapen, gehen also technisch zu dieser Seite, laden sie alle sechs Stunden herunter und vergleichen die Änderungen. Insofern können wir relativ genau und aktuell beobachten: Wie ändern sich die Regeln der Plattform? Und das ist natürlich in so einer Situation wie derzeit sehr interessant, also zum Beispiel konnte man im Januar nach Zuckerbergs Announcement, dass sie ihr Vorgehen ändern wollen, durchaus gleich ein paar Änderungen feststellen, zum Beispiel haben sich da die Hassrede-Regeln bei Instagram, später auch bei Facebook geändert. Es wurde zum Beispiel im Wording variiert von Hate Speech auf Hateful Conduct, damit Speech nicht mehr verboten ist, also im Sinne dieser Meinungsfreiheitsideologie oder -perspektive. Aber auch substanziell haben sich da Sachen gleich geändert, also zum Beispiel objektifizierende Rede ist nicht mehr verboten. Man darf jetzt Frauen, also es wurden tatsächlich Beispiele rausgenommen, Frauen als Haushaltsobjekte [bezeichnen], objektifizierende Sachen, Schwarze oder Transgender-Leute können als "es" bezeichnet werden. Und all diese Beispiele, die gewachsen sind im Laufe der Auseinandersetzung, was eigentlich adäquate Rede ist und was nicht, haben sie deutlich reduziert. Und das sieht man ganz schön in diesem Monitoring, das wir betreiben. Aber auch schon früher konnte man interessante Sachen sehen. Also allgemein konnte man von 2015 bis 2022 ein enormes Wachstum dieser Regeln sehen. Sie sind immer ausgiebiger geworden, inhaltlich stärker. Also Definitionen von Hate Speech und Misinformation, aber auch detaillierter, dass sie sich erklärt haben, gewissermaßen in einer Weise transparenter geworden sind, auch wenn sie es nicht immer ganz durchgesetzt haben. Seit 2022, vor allem seit Musks Übernahme, sieht man aber Stück für Stück eben auch wieder Reduzierungen. Was interessant ist zum Beispiel, jenseits jetzt von Meta, was wir gesehen haben, ist, Youtube hat 2023 im Sommer, als gewissermaßen der US-Wahlkampf begonnen hat und klar wurde langsam, dass Trump der republikanische Kandidat sein wird, haben sie eine Misinformation-Regel rausgenommen. Nämlich vorher oder bis dahin war es nicht erlaubt, auf der Plattform zu behaupten, dass die US-Wahl 2020 gefälscht ist. Und diesen Passus, der zusammen mit dem Verbot von Aussagen über gefälschte Wahlen in Brasilien und Deutschland die einzigen sehr konkreten Beispiele für das Verbot politischer Misinformation auf der Plattform waren, wurde rausgenommen. Da kann man sich auch Gedanken machen über die politischen Hintergründe, die da drinstecken. Ich glaube, da muss man keine Verschwörungstheorie bemüßigen, aber es ist einfach eine sehr unkomfortable Position, wenn man eine Regel hat, die dauernd zuwiderläuft, zu dem, was einer der beiden Präsidentschaftskandidaten sagen wird im Rahmen des Wahlkampfes. Und solche Sachen kann man mit dem Platform Governance Archive sehr schön tracken und man sieht gewissermaßen tagesaktuell, welche Regeln sich da ändern. Ganz oft sind da auch kleine Sachen dabei, aber manchmal sieht man eben auch solche sehr substanziellen Änderungen.
Moderator [00:33:46] Ja, danke für die Erklärung und es scheint ja schon so zu sein, dass in letzter Zeit die Änderungen eher in eine gewisse Richtung gehen, die man jetzt vielleicht auch erwartet hätte nach den Ansagen, gerade nach der Trump-Wahl. Eine Frage, die ich an Sie stellen möchte, Herr Kettemann, ist zur EU-Kommission und der Regulierung von Telegram. Also dass die EU-Kommission im Vorjahr angekündigt hat, eine Untersuchung anzustellen, ob Telegram als sehr große Online-Plattform im Sinne des DSA eingestuft wird. Und wissen Sie, wie hier der aktuelle Stand ist und wie sehen Sie den Fall und das Vorgehen der EU-Kommission in diesem Fall und bei der Einstufung von Plattformen als sehr große Online-Plattformen generell?
Matthias Kettemann [00:34:31] Telegram ist ein historisch sehr schwieriger Fall. Auch die deutschen Behörden hatten ja einiges zu kämpfen mit Telegram in der Vergangenheit. Der Weg, der übrigens damals zu ein bisschen mehr Rechtsverfolgung geführt hat, war ein sehr kreativer. Man ist dann den Umweg über Apple und Google gegangen, über die App Stores und hat den großen Gatekeepern, die da durchaus nützlich geworden sind, gesagt, bitte kommuniziert doch Telegram, dass ihr es nicht mögt, wenn die gar nicht auf die Schreiben des Justizministers antworten. Da war ein Heiko Maas'sches Spiel über die Bande, hat man, glaube ich, damals dazu gesagt. Aber in der Tat, die Kommission hat auch nicht nur glücklich agiert, wenn es um Telegram geht. Das Verfahren ist, soweit ich das jetzt im Blick habe, noch nicht abgeschlossen. Die Frage, inwiefern hier eine besonders große Plattform besteht, ist gar nicht so einfach zu beantworten, weil da sehr unterschiedliche Zahlen genutzt werden und in der Debatte sind. Und andererseits diese duale Funktion von Telegram, die so in gewisser Weise die Rolle von Whatsapp als Direktkommunikationsmedium vereint mit der Rolle von Youtube zum Beispiel, also ein bilderfreieres Youtube, das als one-to-many-Kommunikationsmedium dient, lässt es dann teilweise ein bisschen schwer fassbar machen nach dem DSA. Im Endeffekt würde ich aber sagen, dass eine derartige Einordnung sinnvoll und nötig wäre, aufgrund der großen sozialen Wirkung und aufgrund der Tatsache, dass wir gesehen haben, dass gerade in dieser Doppelfunktion einerseits als individuelles Medium, also als one-to-one-Medium, andererseits als one-to-many-Medium, also ein Medium, ein Kanal, mit dem man mit vielen Leuten gleichzeitig kommunizieren kann, dass hier durchaus wichtige kommunikative Prozesse am Laufen sind. Der Vorteil wäre, dass man dann noch Zugang hätte zu mehr Daten, weil dann entsprechende Pflichten stärker wären. Allerdings sagt Telegram schon seit Jahren, eigentlich halten sie sich ja ohnehin an das Meiste vom DSA, und es würde keine großen Unterschiede mehr geben. Und auch in dieser kurzen Zeit, als der Herr Durow verhaftet wurde, hat die Kommission gleich von Anfang an gesagt: "Das sind nicht wir, das sind nur die Franzosen." Weil da wurde auch einiges an Misinformation darüber geteilt, was genau die Kommission unter dem DSA überhaupt kann. Geht so ein bisschen in Richtung der Frage, die der Herr Böhringer da stellt, also die Kommission muss da schon aufpassen, wie sie vorgeht und klar kommunizieren, was genau sie tut, was ihre Kompetenzen sind, was ihre Ziele sind.
Moderator [00:37:21] Das wäre auch die nächste Frage, die würde ich jetzt erst einmal an Sie stellen, Frau Wendehorst, zum Fall Tiktok und Rumänien. Inwiefern es überhaupt Aufgabe der EU ist, über den DSA nationale Wahlen vor Manipulationen zu schützen. Gerade im Fall von Rumänien könnte der Eindruck entstehen, die DSA-Untersuchung sei ausgelöst worden durch den überraschenden, vielleicht verdächtigen Erfolg eines EU-feindlichen Kandidaten. Und was hofft die EU-Kommission, bei so einer Untersuchung herauszufinden?
Christiane Wendehorst [00:37:50] Zunächst einmal, es war ja nicht nur die EU-Kommission, die hier tätig geworden ist, sondern der rumänische Verfassungsgerichtshof hat bekanntlich hier eine Wahl annulliert. Die EU-Kommission hat hier natürlich, insbesondere weil die TNT-Verordnung noch gar nicht in Geltung war, als das passiert ist, keine Kompetenzen, nationale Wahlen zu untersuchen. Das ist in diesem Zusammenhang ganz wichtig festzuhalten. Es geht hier tatsächlich "nur" um eine Untersuchung zum DSA, zum Digital Services Act, der schon in Geltung war, und da insbesondere zu Artikel 26, der die Werbung auf Online-Plattformen betrifft, aber auch andere Vorschriften des Digital Services Act. Und da steht eben zum Beispiel drin, dass Werbung als solche transparent hervorgehoben sein muss, dass klar sein muss, dass irgendetwas hier eine Werbung darstellt, wer dahinter steckt. Und – ich hab's vorhin schon in meinem Eingangsstatement erwähnt – es ist verboten, Werbung anzuzeigen, die auf Profiling beruht, wenn dieses Profiling sogenannte besondere Kategorien personenbezogener Daten verwendet. Da gehören dann so etwas wie Gesundheitsdaten dazu, aber da gehören eben auch Daten dazu, die die politische Überzeugung, die Weltanschauung und Ähnliches erkennen lassen. Das heißt, es gibt schon so ein paar formale Regeln, die im DSA stehen und für die die Kommission dann durchaus eine Kompetenz hat, deren Einhaltung zu überwachen. Das ist aber begrenzt und das ist, weil die TNT-Verordnung noch gar nicht in Geltung war, nicht wahlenspezifisch. Und es ist also jetzt nicht so, dass die Kommission aus irgendwelchen politischen Gründen umfassend die Fairness von Wahlen untersuchen könnte. Darum geht es absolut nicht, und das ist, glaube ich, ganz wichtig zu betonen und hervorzuheben.
Moderator [00:40:06] Herr Kettemann, Sie haben noch eine kurze Ergänzung.
Matthias Kettemann [00:40:09] Ich halte sowohl das Verfahren vor dem rumänischen obersten Gerichtshof als auch teilweise die Kommunikation der Kommission für etwas unglücklich. Denn wenn man den ersten Wahlgang und den zweiten Wahlgang vergleicht, sieht man, dass da relativ ähnliche Stimmbewegungen stattgefunden haben. Was die einen bestärken kann in der Meinung, dass es in der Tat hier nicht eine besonders große Beeinflussung, die man ohnehin empirisch nicht nachweisen kann, stattgefunden hat. Ich glaube, es ist unbestritten, dass es auf Tiktok und auch auf anderen sozialen Medien über Bots teilweise vom Ausland, teilweise aus Russland gesteuerte Kampagnen gab. Aber da dann gleich zu sagen, wir haben hier eine Beeinflussung einer Wahl und wir müssen die wiederholen, das halte ich für sehr unerfreulich – "unerfreulich" ist jetzt ein persönliches Adjektiv – rechtlich gesehen für problematisch und für politisch auch unklug. Weil damit ja in gewisser Weise denen, die die Desinformation verbreiten, in die Hände gespielt wird, indem man ihnen unterstellt oder indem man nach außen tritt und sagt: Ja, so ein paar Bots und schon wiederholt ein europäisches Land seine Präsidentschaftswahl. Damit machen wir uns doch klein. Das ist doch kein sinnvoller Ansatz. Damit spielen wir denen, die Desinformationen verbreiten, in die Hände.
Christian Katzenbach [00:41:38] Ja, grundsätzlich stimme ich da total zu. In den meisten allgemeinen Debatten über den Einfluss von Social Media auf XY, und dazu gehören Wahlen, dazu gehören aber auch andere Dinge wie Kaufentscheidungen oder was auch immer, aber Wahlen und Meinungen ganz besonders, wird nach meinem Wissen und nach meiner Einschätzung der Einfluss deutlich überschätzt. Und ich sage das jetzt gleichzeitig aber auch vorsichtig, weil es schwierig ist. Es sind erstens unheimlich komplexe Fragen, wie sich Inhalte und ihre Rezeption übersetzen in Handlungen und Einstellungen auf der persönlichen Ebene. Das sind sehr komplexe Phänomene, die auch sehr schwierig zu beforschen sind. Zusätzlich gibt es die Komplexität der Interaktion zwischen dem Individuum und der Gesellschaft. Das sind komplexe Fragen, die grundsätzlich nicht leicht wissenschaftlich zu bearbeiten sind. Und zweitens kommt nun aber hinzu, dass uns die Daten dazu fehlen, um überhaupt systematisch damit zu arbeiten. Weil es für uns empirisch Forschende unheimlich schwierig ist, zum Beispiel an Kombinationen aus Inhalten und Social-Media-Nutzenden und dann vielleicht sogar eben an Befragungen dieser Nutzenden oder an Interaktionen mit denen zu kommen, um zu verstehen, wie bestimmte Inhalte, die sie rezipiert haben, irgendwas für sie verändert haben. Ja, da wird viel überschätzt und wir müssen vorsichtig sein. Das befeuert gewissermaßen auch ein Narrativ der Tech-Unternehmen und auch solcher malicious actors, die versuchen, extern zu beeinflussen. Und zweitens müssen wir aus meiner Sicht daraus ableiten eine robuste Umsetzung des Digital Services Acts und anderer Regulierung in Hinblick auf die Einforderung von Daten. Also ein Element dieser Regulierung ist auch, dass Forschende und im Übrigen auch Journalist:innen und andere gemeinwohlorientierte Akteure besondere Zugriffsrechte auf Daten dieser Plattform haben. Und das muss sich auch noch beweisen, wie gut das funktioniert, in welcher Form wir das tun können, wie die Regulierungsbehörden damit umgehen und die Plattformen selbst dann auch Daten liefern.
Moderator [00:43:56] Ja, wir hatten ja schon einige Press Briefings zu Desinformation. Und da war eben auch oft der Tenor, dass man sehr vorsichtig sein muss, jetzt ganz konkrete Wirkungen zu attestieren, die gerade im Einzelfall kaum nachzuweisen sind. Frau Wendehorst, Sie haben noch eine kurze Ergänzung.
Christiane Wendehorst [00:44:11] Ja, ich wollte signalisieren, dass jenseits der rein juristischen Bewertung, was jetzt die EU-Kommission hier für Kompetenzen hat und worauf sie sich stützen kann, ich natürlich diese Kritik generell teilen würde. Man spielt hier gewissen Narrativen tatsächlich in die Hände, wenn man das hier so betont. Und überhaupt ärgert mich in den letzten Jahren an der ganzen Diskussion über Demokratie und soziale Medien, dass man hier sehr gerne politische Verantwortung von sich weist und alle Schuld, alle Probleme, die wir mit der Demokratie haben, auf die bösen sozialen Medien schiebt. Weil das kommt immer ganz gut, ja. Da ist viel Wahres dran, aber es stimmt eben nicht alles. Und ich glaube, man muss sehr, sehr genau auch hier auf politischer Ebene analysieren, was ist überhaupt passiert, warum haben Menschen so gewählt, wie sie gewählt haben. Also, es gibt gewisse Kompetenzen, die die EU-Kommission hat und die kann man am DSA festmachen.
Moderator [00:45:27] Wir müssen jetzt weitermachen mit den Fragen, sonst schaffen wir, glaube ich, die letzten drei nicht mehr. Die würde ich noch gerne durchkriegen. Die erste ist eine politische Einschätzung. Ich stelle die mal Ihnen, Herr Katzenbach. Inwieweit sehen Sie die strenge Regulierung der US-Digitalanbieter auch als mögliche Verhandlungsmasse bei anderen Auseinandersetzungen mit den USA, zum Beispiel beim Zollstreit?
Christian Katzenbach [00:45:51] Also ich sehe es grundsätzlich eher andersherum als eine Gefahr. Ich glaube, die EU-Kommission wäre sehr schlecht beraten, wenn sie selbst anfangen würde, das als Verhandlungsmasse einzubringen. Das ist meine politische Einschätzung. Ich glaube auch, dass die EU-Kommission – das habe ich damals gar nicht so stark gesehen, aber andere haben das sehr stark kritisiert – sich ein Ei gelegt hat gewissermaßen, sich ein eigenes Problem geschaffen hat, sich selbst sehr stark in die Regulierungskompetenz dieser neuen Welle von Regulierungen reinzuschreiben und nicht auf europäischer Ebene eine Regulierungsbehörde oder irgendwas Neues zu schaffen, das politisch unabhängig ist und wirklich eine Regulierungsbehörde ist. Und insofern sehe ich das eher als eine Gefahr, dass die USA versuchen, darüber Einfluss zu gewinnen. Aber vielleicht sehen andere das auch anders. Ich würde davon abraten, das als Verhandlungsmasse zu benutzen.
Moderator [00:46:46] Bei der nächsten Frage geht es wieder um eine juristische Einschätzung. Ich fange mal mit Ihnen an, Herr Kettemann. Nach dem Landespressegesetz von Bayern muss jede Publikation mit mehr als 500 Empfängern ein Impressum mit persönlich verantwortlicher Person haben. Warum ist das nicht anwendbar auf Postings mit hunderttausenden von Empfängern? Ich gehe mal davon aus, dass Social-Media-Posts gemeint sind.
Matthias Kettemann [00:47:13] Sie meinen zum Beispiel Influencer. Influencer:innen haben schon gewisse Pflichten. Nach dem deutschen Medienrecht haben Influencer:innen durchaus gewisse Pflichten, die gar nicht unähnlich sind denen von Medien. Das mit der Impressumpflicht, das kommt aus dem Medienrecht. Historisch gesehen war es immer schwierig, das Medienrecht auf Plattformen anzuwenden und durch die Filter der Plattformen zu kommen, um auf die Einzelnen zuzugreifen, war nicht immer ganz einfach. Allerdings ist das in manchen Bereichen des Rechts schon geschehen. Denken Sie an das Datenschutzrecht zum Beispiel, wo schon seit Jahren von Gerichten festgehalten wurde, dass etwa die Betreiber von Facebook-Gruppen eine gewisse Mitverantwortung haben bezüglich der Daten, die sie verwenden. Was einer der Gründe war, warum sich die großen öffentlichen Anbieter dann relativ bald zurückgezogen haben und es zum Beispiel keine Facebook-Gruppe vom Bundesministerium für Justiz gibt. Generell ist die Impressumspflicht schwierig anzuwenden in sozialen Räumen, wo ja auch Anonymität eine wichtige Rolle spielt.
Moderator [00:48:40] Gut, dann haben wir als letzte Frage noch die ganz einfache Frage, wie man Tiktok regulieren sollte, kurz zusammengefasst. Ich fange vielleicht mal mit Ihnen an, Herr Katzenbach. Politische Kommunikation auf Tiktok und ähnlichen Plattformen, also Stichpunkt Filterblasen, Diversification Labeling: Welche Ansätze zur Regulierung der Algorithmen und Feeds gibt es, um da ein ausgewogenes oder ausgewogeneres Contentangebot sicherzustellen? Und halten Sie es für realistisch, dass eine solche Regulierung implementiert wird?
Christian Katzenbach [00:49:14] Aus meiner Sicht geht es ja immer um eine Balance. Einerseits, glaube ich, gibt es in Europa zumindest einen Konsens: Plattformen müssen irgendwie Verantwortung tragen für das, was da passiert. Und wir sehen auf jeden Fall dysfunktionale oder für das Gemeinwohl riskante Entwicklungen, die da passieren mit der Verbreitung vor allem von Misinformation und Hate Speech, die durchaus Probleme sind, auch wenn sie auf individueller Ebene nicht immer sofort wirken, zumindest jetzt Misinformation. Andererseits glaube ich schon, dass es da auch einen gewissen Wettbewerb geben muss und man in Inhalte grundsätzlich medienregulatorisch nicht so stark eingreifen möchte aus demokratietheoretischen Perspektiven. Und dazwischen versuchen Regulierer in Europa gerade Balancen zu finden. Ich glaube eigentlich, dass dieser Weg des Digital Services Act, stärker prozedural zu regulieren, ein guter ist. Also die Plattform an ihre eigenen Regeln zu binden und accountable zu machen. Zusätzlich dann noch sowas wie diese systemische Risikenevaluierung zu installieren, die sie auch selbst machen, die aber dann durch Regulierer gewissermaßen nochmal überprüft wird. Und drittens, den Datenzugang für Wissenschaftler zu stärken. Was eigentlich ein guter Weg ist, um Plattformen zumindest sichtbarer zu machen in dem, was sie tun, und sie dann dafür zu kritisieren. Das heißt aber nicht, dass sie sich dann sofort ändern. Aber das muss vielleicht auch gar nicht sein. Das ist meine Perspektive darauf.
Moderator [00:50:43] Frau Wendehorst, Herr Kettemann, hätten Sie da noch eine juristische Perspektive zu dieser Frage oder würden Sie da mitgehen? Frau Wendehorst?
Christiane Wendehorst [00:50:52] Im Prinzip sind die Regulierungen, die ich vorhin genannt habe, also insbesondere DSA und TNT-Regulation, ja genau der Versuch des europäischen Gesetzgebers hier zu regulieren. Sie fragen jetzt, ob wir es für realistisch halten, dass die Regulierung implementiert wird. Also ja, bis zu einem gewissen Grad schon, mit dem üblichen Durchsetzungs-Gap, Implementation-Gap, was wir sicherlich auch hier sehen werden. Aber diese Versuche, wie es Herr Katzenbach auch gesagt hat, das Prozedurale zu regeln: Also, welche Daten darf ich verwenden, was muss ich offenlegen? Muss ich dem Nutzer Möglichkeiten geben, zu entpersonalisieren? Muss der Nutzer eine Möglichkeit haben, die Rankingparameter zu ändern? Das sind alles so Maßnahmen, die hier ergriffen worden sind. Und ich würde jetzt einfach mal abwarten, wie die in der Praxis greifen.
Moderator [00:51:53] Vielen Dank für die Einschätzung. Herr Kettemann, zu Ihrer Antwort eben haben wir noch eine Nachfrage bekommen, was der rechtliche Grund ist, warum zwei gleiche Dinge unterschiedlich behandelt werden. Mein Verständnis Ihrer Antwort war, dass es nicht zwei gleiche Dinge sind.
Matthias Kettemann [00:52:08] Soweit ich das überblicke, ist das die Meinung der meisten Medienrechtler:innen, dass das eben nicht gleiche Dinge sind, weil die Haftungssituation anders ausschaut, die Art der Kommunikation anders ausschaut und das Medienrecht auch einfach anders gewachsen ist.
Moderator [00:52:24] Dann sind wir eigentlich auch schon durch. Wir haben gar nicht so sehr überzogen. Ich würde gern noch eine Frage loswerden. Herr Katzenbach, wir hatten eben auch schon zu den Forschungsdaten gesprochen, und da soll ja durch Digital Services Act oder Digital Markets Act, ich bin mir nicht ganz sicher, aber einer sollte ja auch besseren Zugang dazu herstellen. Haben Sie in der Praxis beobachtet, dass das schon irgendwas gebracht hat, oder steht das zwar im Gesetz, aber hat noch keinen praktischen Effekt?
Christian Katzenbach [00:52:52] Das ist immer noch in der Umsetzung. Also ich kenne bisher noch keinen erfolgreichen Antrag, mit dem Kollegen Daten bekommen haben und damit gearbeitet haben. Der Digital Services Coordinator in Deutschland, er hat ja auch gerade erst vor wenigen Wochen oder Monaten den Dienst aufgenommen, ist auch noch nicht voll ausgestattet. Da sind aber jetzt die ersten Anfragen eingegangen. Und jetzt werden die meines Wissens bearbeitet. Ich kenne noch keine Kollegin, keinen Kollegen, die Daten bekommen haben. Und das ist genau das, was ich meine. Also hier muss die Umsetzung jetzt beweisen, dass da nicht zu hohe Hürden für uns Forschende errichtet werden. Denn es erfordert natürlich auch eine gewisse Kompetenz, Expertise und Ausstattung. Und da wird sicher in den nächsten Jahren viel darüber zu reden sein, wie man hier für verschiedene Forschende und auch andere Interessierte, die auch Zugang haben sollten, das überhaupt ermöglicht. Also wie sichert man da zum Beispiel dann auch den Datenschutz wiederum der betroffenen Social-Media-Nutzenden. Was dann wir als Forschende leisten müssen, auch aus einem berechtigten Interesse heraus, was aber wiederum natürlich auch nicht ganz leicht ist, dann technologisch und organisatorisch umzusetzen. Also hier ist ein unheimlicher Expertiseaufbau auf allen Seiten, glaube ich, notwendig, der hoffentlich auch mit genügend Ressourcen ausgestattet wird. Und das muss sich jetzt erstmal beim Digital Services Coordinator, der an die Bundesnetzagentur angegliedert wird in Deutschland, beweisen.
Moderator [00:54:30] Okay, dann geben wir dem also nochmal ein paar Monate, sich zu etablieren. Aber dann wäre es ja schon eine interessante Frage, ob dann ein positiver Effekt auftritt. Gut, damit ist die Zeit vorbei. Dann erstmal vielen Dank Ihnen dreien, dass Sie heute dabei waren, dass Sie die Fragen beantwortet haben. Vielen Dank auch an die Journalistinnen und Journalisten für die Fragen und die Aufmerksamkeit. Heute werden wir die Aufzeichnungen so schnell wie möglich auf unserer Homepage online stellen. Voraussichtlich morgen Mittag wird es da auch das Transkript geben. Und falls Sie schon eine Audioaufzeichnung, die Videodatei oder heute schon das maschinell erstellte Transkript haben wollen, finden Sie in der Reminder-Mail von heute Morgen einen Link. Da können Sie das alles runterladen. Dann vielen Dank für Ihre Zeit. Ich wünsche Ihnen noch einen schönen Tag und sage auf Wiedersehen. Bis zum nächsten Mal.

