Zum Hauptinhalt springen
15.12.2020

EU-Kommission schlägt neuen Rechtsrahmen für Plattformbetreiber vor

EU-Gesetze sollen die Macht von Tech-Giganten einschränken: Am 15.12.2020 hat die Europäische Kommission die Gesetzesvorschläge zum Digital Services Act (DSA) und dem Digital Markets Act (DMA) vorgestellt (siehe Primärquellen). Durch diese EU-weiten Gesetze sollen insbesondere große Plattformbetreiber – wie Google, Facebook, Amazon oder Apple – reguliert sowie der Missbrauch ihrer Marktmacht und unlautere Praktiken verhindert werden. Darunter fallen zum Beispiel Praktiken wie das prominentere Empfehlen eigener Produkte bei Amazon oder die Tatsache, dass Google seine Marktmacht auch nutzt, um auf Smartphones anderer Hersteller die Vorinstallation von Google-Software zu erzwingen. Welche Plattformbetreiber betroffen sind, hängt unter anderem von der Anzahl ihrer europäischen Nutzer ab und davon, in wie vielen verschiedenen Gebieten – wie beispielsweise Online-Werbung oder Suchen – Betreiber aktiv sind. Plattformen mit mehr als 45 Millionen Nutzern in der EU – in Zukunft angepasst an zehn Prozent der EU-Einwohner – sollen besonders betroffen sein. Strafen können bis zu sechs Prozent (DSA) und zehn Prozent (DMA) des jährlichen globalen Einkommens eines Anbieters umfassen.

Da freiwillige Maßnahmen der Plattformbetreiber und Selbstkontrolle nicht den gewünschten Effekt erzielt haben und nationale Gesetze – wie das Netzwerkdurchsetzungsgesetz (NetzDG) in Deutschland, das Kommunikationsplattformen-Gesetz in Österreich oder das Anti-Hass-Gesetz in Frankreich – zur Fragmentierung der Gesetzeslage im europäischen Binnenmarkt beigetragen haben, sollen DSA und DMA die Gesetzeslage EU-weit vereinheitlichen. Dabei werden unter anderem bisherige Binnenmarktregeln für digitale Dienstleistungen überarbeitet, mehr Kontrolle und Aufsicht über Plattformbetreiber ermöglicht und weitergehende Transparenzpflichten für die Anbieter eingeführt. Außerdem müssen die Anbieter Maßnahmen gegen die Verbreitung illegaler Inhalte, Dienstleistungen oder Waren treffen. Die direkten gesetzlichen Regelungen betreffen aber nur diese illegalen Inhalte, als schädlich definierte Inhalte wie Desinformation werden nur indirekt durch die zusätzlichen Transparenzpflichten der Anbieter betroffen. Außerdem sollen es die Gesetze möglich machen, Maßnahmen der Plattformbetreiber im Voraus beurteilen und regulieren zu können – eine sogenannte ex-ante-Regulierung. Als mögliche Beispiele, in welchen Fällen eine solche Regulierung unter Umständen hätte greifen können, werden die Übernahme von WhatsApp durch Facebook oder die Gründung von Facebooks digitaler Währung Libra genannt.

Die für diesen Bereich vorher geltende E-Commerce-Richtlinie [I] wurde seit ihrer Einführung im Jahr 2000 kaum angepasst und ist daher eigentlich überholt. So legt diese zum Beispiel fest, dass für Anbieter das Gesetz des Landes gilt, in dem sie ihren jeweiligen Sitz haben. Dieses Herkunftslandprinzip führt dazu, dass Firmen wie Facebook ihren Sitz in Europa in Irland haben und nach den dort weniger strengen Datenschutzgesetzen beurteilt werden. Das wird aber auch durch DSA und DMA nicht geändert.

Weitere Kritik äußerten im Vorfeld auch Verbände und Think Tanks. Die Kritik reicht von Befürchtungen, illegale Aktivitäten könnten sich auf kleinere Plattformen auslagern, die nicht die Mittel haben, dagegen richtig vorzugehen über die Aussage, das geltende Recht sei doch sogar gut für europäische Bürger und Unternehmen bis zu dem Vorwurf, die Gesetze würden nur amerikanischen Unternehmen schaden wollen. Auf der anderen Seite haben Organisationen wie LobbyControl vor der Lobbyarbeit der Digitalkonzerne gewarnt [II].

Übersicht

     

  • PD Dr. Matthias Kettemann, Forschungsprogrammleiter „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI), Hamburg
  •  

  • Prof. Dr. Tobias Keber, Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien Stuttgart
  •  

  • Prof. Dr. Rolf Schwartmann, Leiter der Kölner Forschungsstelle für Medienrecht, Technische Hochschule Köln und Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD e.V.)
  •  

Statements

PD Dr. Matthias Kettemann

Forschungsprogrammleiter „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI), Hamburg

„Der neue Rechtsrahmen für digitale Dienste und Märkte ist eine eierlegende Wollmilchsau der Plattformregulierung, ein um Transparenzpflichten, Algorithmenkontrolle und Werbeaufsicht erweitertes europäisches Netzwerkdurchsetzungsgesetz.“

„Was für den Datenschutz die Datenschutzgrundverordnung ist – in Reichweite, Wirkung, Ausstrahlung – wird für die Plattformökonomie und für die Internetkommunikation diese Verordnung. Sie bringt wenig Unerwartetes; sie ist ein solider, aber durchaus großer Wurf der EU und wird ein Exportschlager sein.“

„Was kommt: mehr Rechte für Nutzer, mehr Transparenzpflichten für Plattformen, mehr Algorithmenkontrolle, mehr Kontrolle der Marktmacht, mehr Kontrollmöglichkeiten für Staaten und die EU und vor allem viel höhere Transparenz- und Risikoabwägungspflichten für besonders große Plattformen (über 45 Millionen Nutzer*innen in der EU), zu denen auch Facebook und YouTube gehören. Alle Plattformen müssen jetzt besser erklären, was sie löschen und warum sie löschen. Die großen müssen darüber hinaus noch sorgfältiges Risikomanagement sicherstellen, sodass ihre Systeme nicht missbraucht werden, um beispielsweise Desinformation zu streuen. Es kommen auch mehr Pflichten für Plattformen, um sicherzustellen, dass Händler diese nicht nutzen, um gefälschte Waren zu verkaufen.“

„Viele der nun kommenden Regelungen hat das Netzwerkdurchsetzungsgesetz für Deutschland schon vorweggenommen (wie Transparenzberichte), andere neue Regelungen haben Plattformen schon freiwillig eingerichtet (wie ein Werbearchiv). Dass das nun für alle bindend kommt, ist ein großer Vorteil.“

„Während die EU im Bereich Datenschutz (DSGVO) und Privatsphärenschutz (Schrems-Fälle) gezeigt hat, was sie regulativ kann, fehlte bisher eine Reform der Kontrolle über Internetplattformen und ihre Märkte – für die Zukunft Europas und dessen Bürger*innen so entscheidende Rechtsgebiete.“

„Was ist gut: Endlich kommt eine Reform der 20 Jahre alten E-Commerce-Richtlinie mit neuen Transparenzregeln für Algorithmen, Berichtspflichten für den Umgang mit illegalen Inhalten, Binnenmarktregeln für digitale Dienstleistungen und einer stärkeren Aufsicht über Plattformbetreiber.“

„Was ist schlecht: Die Änderungen werden wohl erst 2024 in Kraft treten, Irland hat weiterhin eine wichtige Rolle als Sitzstaat großer Unternehmen, kleine Plattformen bleiben großteils unreguliert, die nationalen Kontrollbefugnisse könnten noch nachgeschärft werden.“

„Der neue Rechtsrahmen geht in den Bereichen Algorithmenregulierung und Wettbewerbsschutz weiter als erwartet wurde, richtig mutig sind die Vorschläge aber insgesamt nicht.“

Zur Frage, was die wichtigsten Punkte sind und warum:
„Die wichtigsten Transparenzregeln werden anzuwenden sein auf richtig große Plattformen, also solche, die mehr als 45 Millionen Nutzerinnen und Nutzer in der EU haben. Die Haftungsregeln aus der E-Commerce-Richtlinie bleiben bestehen und werden präzisiert sowie um Wiederherstellungspflichten erweitert. Systemisch wichtige Unternehmen müssen Risikobewertungen zur Verbreitung von illegalen Inhalten (wie Hassrede) durchführen und darüber berichten, was sie dagegen tun. Nicht illegale, aber problematische Inhalte – wie Desinformation und ‚Fake News‘ – sind davon aber nicht umfasst. Das ist gut. Allerdings müssen Plattformen darüber berichten, wie sie zwischen legalen und illegalen Inhalten unterscheiden, sodass sie jedenfalls auch über ihre Maßnahmen gegen beispielsweise Impfgegner und Corona-Leugner berichten werden.“

„Die Chance wurde verpasst, die Melde- und Abhilfeverfahren von Plattformen klarer zu konturieren. Positiv ist, dass Plattformen verpflichtet werden, Streitfälle an eine nationale Streitbeilegungsstelle zu verweisen.“

„Im Bereich der Werbung wird nun höhere Transparenz gefordert, inklusive genauerer Angaben darüber, wer die Werbekunden sind und welche Nutzer angesprochen werden. Ein Recht, Dienste anonym zu nutzen, kommt nicht. Mikrotargeting wird nicht verboten. Wir werden weiterhin mit unseren Daten und unserer Aufmerksamkeit zahlen. Plattformen werden auch mehr Informationen über Algorithmen hergeben müssen, damit nachgeprüft werden kann, wer welche Inhalte vorgeschlagen bekommt. Ob Forscher dadurch direkten Zugang zu Rohdaten erhalten, erscheint allerdings fraglich.“

Zur Frage, wie wirkungsvoll der vorgeschlagene Kontrollrahmen ist und inwiefern in einigen Fällen die Pflicht zu mehr Transparenz reicht:
„Beim Netzwerkdurchsetzungsgesetz waren es auch nicht die drohenden Strafen, die Plattformen dazu veranlasst haben, ihr Verhalten zu ändern. Daher ist Durchsetzung entscheidend. Die möglichen Höchststrafen für Verstöße sind mit sechs Prozent des Jahresumsatzes höher als bei Datenschutzverstößen, aber immer noch nicht wirklich schmerzhaft, da Verstöße – gerade im Wettbewerbsrecht – teils von Unternehmen eingepreist werden. Eine unabhängige Prüfinstanz soll diese Prozesse überwachen: das European Board for Digital Services.“

„Auf nationaler Ebene sind ‚Digital Services Coordinators‘ (Koordinatoren für soziale Dienste) zunächst zuständig, die Verordnung durchzusetzen. Sie sollen auch mehr Zugang zu internen Daten bekommen und auch bei Plattformen vor Ort Untersuchungen vornehmen können. Ob hierfür auch eine neue Instanz geschaffen werden soll, oder ob Landesmedienanstalten und Datenschutzbehörden hier zusammen eine neue kooperative Plattformaufsicht schaffen, ist unklar.“

„Allerdings scheint auch weiter eine Kontrolle durch Irland als zuständiges Land für die in Dublin ansässigen großen Plattformen (Google-YouTube, Facebook) eine große Rolle zu spielen, was weder mit Blick auf Privatsphärenschutz noch auf Besteuerungsgerechtigkeit in der Vergangenheit gute Ergebnisse gezeigt hat.“

„Schon jetzt hat zum Beispiel Frankreich gegen Google und Facebook Strafen verfügt und Deutschlands Kartellwächter haben gegen Facebook ein Verfahren wegen der Notwendigkeit eines Facebook-Profils bei der Nutzung von Oculus, einer VR-Brille, eingeführt. Auch daran wird sich nichts ändern.“

„Im Bereich Desinformation haben freiwillige Maßnahmen der Plattformbetreiber nicht ausreichende Erfolge erzielt. Auch im Bereich Kampf gegen terroristische Inhalte wurde eine erfolgreiche Selbstkontrolle nicht für ausreichend erachtet. Im Bereich des Schutzes digitaler Märkte und der Erhöhung der Wettbewerbsfähigkeit kann kein Rechtssetzer auf Selbstkontrolle setzen.“

Zur Frage, wie es jetzt mit den Gesetzvorschlägen weitergeht und mit welchen Auswirkungen langfristig zu rechnen ist:
„EU-Rechtsetzungsprozesse dauern stets sehr lange. Auch nachdem nun die Vorschläge vorliegen, werden wir noch lange keine Änderungen im geltenden Recht haben. Jetzt kommen zunächst Verhandlungen und Abstimmung zwischen den einzelnen Staaten, Nachbesserungen, Verhandlungen zwischen den EU-Organen, darunter dem Europäischen Parlament. Mit einem Inkrafttreten der endgültigen Reform ist nicht vor frühestens 2023 zu rechnen.“

„Es ist davon auszugehen, dass einzelne Klauseln des Netzwerkdurchsetzungsgesetzes und das österreichische Kommunikationsplattformen-Gesetz nach Inkrafttreten der Neuregelung von nationalen Gerichten sehr bald dem EuGH zur Kontrolle vorgelegt werden, wobei es aber durchaus möglich erscheint, dass die Gesetze halten werden.“

„Wie auch schon die DSGVO großen Einfluss weltweit hatte, und das Netzwerkdurchsetzungsgesetz in 20 Ländern kopiert wurde, wird auch diese Verordnung als europäischer Gesetzesexport maßgeblich dazu beitragen, dass digitale Dienste weltweit stärker reguliert werden.“

Prof. Dr. Tobias Keber

Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien Stuttgart

„Allgemein gilt: Das ist kein kleines Regulierungsupdate, sondern eine neue Version des rechtlichen Betriebssystems für digitale Dienste, auch wenn sie derzeit noch im Beta-Stadium ist. Das Vorhaben geht mit seinem horizontalen Ansatz über verschiedene Rechtsgebiete (Wettbewerbs- und Datenrecht ebenso wie das Infrastruktur- und Medienrecht) hinweg und kann hinsichtlich seiner Tragweite ohne Frage mit der Datenschutzgrundverordnung (DSGVO) oder der kürzlich reformierten Urheberrichtlinie (Stichwort Uploadfilter) mithalten. Klar ist auch, dass wir beim DSA nicht von einer Richtlinie, sondern von Verordnung sprechen. Das ist wesentlich, denn bei Verordnungen gibt es grundsätzlich kaum nationalen Ausgestaltungsspielraum. Mit unter anderem Vorgaben zu personalisierter Werbung (Ad Tech), Empfehlungssystemen und Rankings zielt die Regulierung schließlich auf den Kern des Geschäftsmodells der Aufmerksamkeits- und Überwachungsökonomie. Fest steht: Facebook, Google und Co wird das ganz und gar nicht gefallen.“

„Der Sache nach ist der Rechtsakt zu begrüßen, denn er ist überfällig. Die Strukturen datengetriebener Monopolisten haben sich zum Teil zu tragenden Säulen im öffentlichen Diskursraum ausgewachsen. Damit korrespondiert Verantwortung und wenn diese nur unzureichend wahrgenommen wird, bedarf es der Regulierung. Sachgerecht ist es auch in jedem Fall, diese Fragestellung europäisch zu adressieren. Nationale Alleingänge, wie wir sie beim deutschen NetzDG (nebst seinen umstrittenen jüngsten Updates) erleben, sind doch langfristig keine Lösung.“

Zur Frage, was die wichtigsten Punkte sind und warum:
„Wichtig sind nach meiner Einschätzung vor allem drei Punkte: 1. mehr Verantwortung für große Online-Plattformen, 2. die Pflicht, hinsichtlich des Umgangs mit illegalen Inhalten einen belastbaren Plan zu haben und 3. eine (wenn auch behutsame) Einschränkung der Privatautonomie bestimmter Provider, was die Ausgestaltung ihrer Nutzungsbedingungen (Terms of Service) angeht.“

„Der Elefant im Raum ist zunächst die Frage, wie weit an den hergebrachten Prinzipien der Haftung für die Vermittlung von Inhalten durch Plattformen wie YouTube, Facebook und Co festgehalten wird. Bisher galt die Grundregel, dass Host-Provider für rechtswidrige Inhalte Dritter erst ab Kenntnis der Rechtswidrigkeit haften und die Inhalte dann von der Plattform nehmen müssen (notice and take down). Bei Einführung des Providerprivilegs im europäischen Recht vor 20 Jahren wurde bei Dienstanbietern, die Inhalte für Nutzer speichern nicht weiter differenziert. Strukturell als Host-Provider gleich behandelt wurden also YouTube, Facebook, Twitter und das Webblog einer Hochschule mit offener Kommentarfunktion.“

„Die 2019 verabschiedete Urheberrechtsrichtlinie differenzierte dann das System weiter aus und legte einer neuen Unterkategorie von Anbietern (content-sharing service providers, OCSS-Provider) weitergehende Pflichten auf, was in der öffentlichen Debatte unter ‚Uploadfiltern‘ diskutiert wurde. Politisch diskutiert wurden solche Filter dann jüngst noch einmal im Rahmen der (parallel und formal unabhängig vom Digital Services Act verhandelten) ‚Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte‘. Vor diesem Hintergrund war es schon spannend, wie sich der Digital Services Act zu einer allgemeinen Pflicht der Provider verhalten würde, Inhalte proaktiv auf Rechtsverletzungen hin zu filtern. Insoweit beruhigt die Lektüre des Kommissionsentwurfs ein wenig, denn eine rechtsgebieteübergreifende Pflicht zur Installation von Uploadfiltern durch Provider sieht der Digital Services Act nicht vor. Das bedeutet für die Adressaten aber keine umfängliche Entwarnung, denn trotzdem werden ihre Verantwortlichkeiten wesentlich engmaschiger gezogen, als das bisher der Fall war.“

„Zwei Beispiele: Besonders systemrelevante Plattformen (‚very large platforms‘) mit über 45 Millionen NutzerInnen, also ungefähr zehn Prozent der Bevölkerung der EU, sollen mit Bußgeldern bis zu sechs Prozent des weltweiten Jahresumsatzes belegt werden können, wenn sie bestimmte illegale Inhalte, namentlich Terrorpropaganda, entgegen entsprechender Anweisung nicht löschen. Empfindliche Bußgelder (bis zu vier Prozent des weltweiten Jahresumsatzes) kennen wir ja schon aus der Datenschutzgrundverordnung. Insoweit legt man hier noch eine ganze Schippe drauf. Gleiches gilt für den Digital Markets Act, der die Möglichkeit vorsieht, bestimmte unlautere Praktiken zentraler Plattformdienste (‚Gatekeeper‘, zum Beispiel Suchmaschinen, soziale Netzwerke oder Online-Vermittlungsdienste) mit bis zu zehn Prozent des weltweiten Umsatzes zu sanktionieren.“

„Weiter müssen systemrelevante Plattformen zeigen, dass sie einen Plan haben, wie sie mit illegalen Inhalten umgehen. Sie müssen Risikoanalysen durchführen (assessments identifying systemic risks) und dies dokumentieren. Eine Pflicht zur Reflexion und der Nachweis, dass man einen Koffer mit brauchbaren Werkzeugen für unterschiedliche Aufgabenstellungen hat, kennen wir ebenfalls schon aus der Datenschutzgrundverordnung. Welche Werkzeuge genau im Koffer sind, steht den Plattformen nach dem Digital Services Act weitgehend frei. Wenn man die Aufgabenstellung hat, ein Feuer im Keller zu löschen, kann man ja auch wählen, ob man das mit dem hauseigenen Feuerlöscher von der Wand tut oder den Wasserschlauch vor Ort einsetzt.“

„In Teilen kann man den Digital Services Act als ‚Abhängigkeitserklärung des Cyberspace‘ begreifen. Gleichsam als Gegenmodell zur berühmten Erklärung von 1996, mit der Macht und Regierbarkeit des Internets durch staatliche Akteure zurückgewiesen wurde. Der DSA stellt klar, dass Plattformen gegenüber ihren Nutzern Pflichten haben, die analog zur Bindung des Staates an Grundrechte verstanden werden können. Völlig frei in der Gestaltung ihres Hausrechts sind die privaten Unternehmen nicht (mehr). Wenn die Plattformen für den öffentlichen Diskurs essenziell sind, müssen die NutzerInnen über effektive Mechanismen verfügen, um wesentliche Entscheidungen der Plattformen ihnen gegenüber (etwa die Löschung eines bestimmten Posts) schnell und unbürokratisch überprüfen zu können.“

„Während früher für Host-Provider also lediglich ein ‚notice and take down‘ galt, geht es jetzt zu einem notice and take action und Nutzer haben ein Recht, bei sie betreffenden Interventionen (beispielsweise Löschung eines Posts) ein ‚Statement of reasons‘ der Anbieter zu erhalten.“

Zur Frage, wie wirkungsvoll der vorgeschlagene Kontrollrahmen ist und inwiefern in einigen Fällen die Pflicht zu mehr Transparenz reicht:
„Transparenz hat ihre funktionalen Grenzen. Wenn wir von Algorithmen-Transparenz sprechen, haben wir das Problem, dass sie nach der Rechtsprechung Geschäftsgeheimnisse darstellen. Transparenz in diesem Bereich kann also nicht Offenlegung gegen Jedermann bedeuten. Der jüngst in Deutschland in Kraft getretene Medienstaatsvertrag versucht doch auch diesen Balanceakt mit überschaubarer Erfolgsaussicht. Ein paar Kriterien für das personalisierte Empfehlungssystem für Videos nennt Ihnen YouTube jetzt. Da steht aber nichts drin, was Sie nicht ohnehin schon wussten. Wichtiger aber noch: Was hilft Transparenz, wenn man keine Wahl hat? Wenn ein Monopolist Ihnen sehr transparent ins Gesicht sagt, welcher (rechtswidrigen) Auswahlkriterien und Verfahren er sich bedient: Beenden Sie den (geschäftlichen) Kontakt? Wenn es keine vergleichbare Alternative gibt?“

Zur Frage, wie es jetzt mit den Gesetzvorschlägen weitergeht und mit welchen Auswirkungen langfristig zu rechnen ist:
„Wann genau das Regelwerk ausverhandelt und in Kraft treten wird, lässt sich jetzt noch nicht sagen. Nach der nun vorliegenden Gesetzesinitiative der Europäischen Kommission sind Parlament und Rat der EU (Ministerrat, also die Regierungen der EU-Mitgliedstaaten) am Zug. Die Dauer des Gesetzgebungsverfahrens hängt letztlich davon ab, wie weit die Auffassungen und Interessen im Trilog der beteiligten Gesetzgebungsgremien auseinanderliegen. Für eine grobe Einschätzung: Die Verhandlungen zur Datenschutzgrundverordnung dauerten über vier Jahre, und dann gestand man den Normadressaten noch eine Schonfrist von weiteren zwei Jahren zu, bis die Verordnung unmittelbar anwendbar wurde. Die seit 2016 diskutierte ePrivacy-Verordnung, in der es unter anderem auch um Fragen der Ad Tech geht, ist noch immer nicht ausverhandelt. Wenn man sich dann die Tragweite und Komplexität des Projekts um den Digital Services Act anschaut, ist die Anzahl potenzieller Streitpunkte jedenfalls so groß, dass das in der Presse verschiedentlich avisierte Jahr 2024 oder von der Kommission gar genannte 2022 allzu optimistisch erscheint.“

Prof. Dr. Rolf Schwartmann

Leiter der Kölner Forschungsstelle für Medienrecht, Technische Hochschule Köln und Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD e.V.)

Zum Thema Nutzungsbedingungen und Transparenz:
„Transparenzverpflichtungen für Diensteanbieter sind ein zentraler Regulierungsansatz. Insoweit müssen nicht nur Nutzungsbedingungen, sondern auch der interne Maßnahmenkatalog eines Anbieters für Beschränkungen zur Nutzung des Dienstes offengelegt werden. Der Entwurf erlegt den Anbietern Transparenzverpflichtungen auf, etwa nach dem Vorbild von DS-GVO, NetzDG und Medienstaatsvertrag. Sie betreffen die Anzahl von staatlichen Anordnungen, kategorisiert nach Inhalt von Wortbeiträgen, bis zu Videos beanstandeter Beiträge.“

„Es muss klar sein, ob die Dienste per Allgemeiner Geschäftsbedingungen (AGB) oder aufgrund eines Gesetzes agieren. So kann geprüft werden, ob dem Gesetzesrecht auch tatsächlich der ihm gebührende Vorrang gewährt wird. Der Entwurf enthält die Pflicht, mitzuteilen, ob ein Anbieter auf Grundlage seines Hausrechts oder aufgrund von Gesetzesrecht tätig geworden ist. Offengelegt werden muss auch, in welchen Fällen der Dienst eigenmächtig Inhalte gelöscht, ausgeblendet oder gesperrt hat. Auf diese Weise wird erkennbar, ob und auf welche Weise ein Dienst eigene politische Wertungen propagiert, wie das im US-Wahlkampf der Fall war.“

„Der Entwurf enthält damit gute Ansätze, lässt aber wichtige Punkte aus. So fehlen Regelungen zur aktiven Sicherung von Demokratie und Pluralismus, wie sie die Datenethikkommission (F. 6. des Abschlussgutachtens [1]) empfohlen hat.“

„Das wurde insofern zu Recht ausgeklammert, als die Kompetenz für die Medieninhalteregulierung, etwa bei der Reichweite der Meinungsfreiheit und bei aktiven Maßnahmen zur Sicherung von Pluralismus und Demokratie in den Medien, Angelegenheit der Mitgliedstaaten ist.“

„Auch enthält der Entwurf keine wirkungsvollen Maßnahmen zur Bekämpfung des sogenannten Overblocking. Das vorschnelle Löschen oder Verbergen von Inhalten wird durch den faktischen Vorrang der Gemeinschaftsstandards vor dem Gesetzesrecht erzeugt, was Rechte verkürzen kann. So müssen nach Regeln des Hausrechts oft Beiträge gelöscht werden, die als ‚Hassrede‘ gesetzlich nicht zu beanstanden sind, wohl aber nach den willkürlichen Regeln des Hausrechts.“

Zum Thema Algorithmenkontrolle:
„Der Entwurf enthält bei der sogenannten Algorithmenkontrolle weitgehende Möglichkeiten. Wie Inhalte für den Nutzer aufgrund von Programmierungen von Empfehlungssystemen zustande kommen, ist gegenwärtig intransparent. Warum ein werblicher oder politisch relevanter Inhalt in Newsfeeds angezeigt oder in Suchanfragen bevorzugt wird, ist weder für den Regulierer noch für den Nutzer nachvollziehbar. Hier sieht der Entwurf in Fortentwicklung der Transparenzvorschriften und der Kontrolle automatisierter Entscheidungen der DS-GVO und des Medienstaatsvertrages weitergehende Kontrollbefugnisse und Transparenzverpflichtungen vor.“

„Der EU-Kommission oder den von dieser benannten Experten wird die Möglichkeit eingeräumt, die IT-Systeme und algorithmischen Systeme sehr großer Anbieter – 45 Millionen Nutzer – einsehen zu können und erklären zu lassen. Dieser über den aktuellen Regulierungsrahmen hinausgehende staatliche Kontrollraum ist wichtig.“

„Geistiges Eigentum und der Schutz von Betriebs- und Geschäftsgeheimnissen sind dann gewahrt, wenn die Kontrolle – wie hier – im Rahmen staatlicher Aufsichtsbefugnisse erfolgt. Erwägenswert ist es, bei dieser staatlichen Kontrolle anbieterspezifisch vorzugehen. So kann gewährleistet werden, dass zur Geheimhaltung verpflichtete Kontrolleure nur Wissen über die Systeme eines Anbieters erhalten, sodass ein Austausch über im Rahmen der Aufsicht möglicherweise erfahrene Betriebsgeheimnisse der Konkurrenz unterbunden werden kann. Weiterführende Gedanken dazu finden sich in einer Studie aus dem Jahr 2019 zur Transparenz bei Medienintermediären im Auftrag der Medienanstalt Hamburg/Schleswig-Holstein [2].“

Angaben zu möglichen Interessenkonflikten

PD Dr. Matthias Kettemann: „Mögliche Interessenkonflikte sind keine anzugeben.“

Prof. Dr. Tobias Keber: „Keine.“

Alle anderen: Keine Angaben erhalten.

Primärquellen

Europäische Kommission (15.12.2020): Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC. Der Gesetzesvorschlag zum Digital Service Act.

Europäische Kommission (15.12.2020): Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on contestable and fair markets in the digital sector (Digital Markets Act). Der Gesetzesvorschlag zum Digital Markets Act.

Literaturstellen, die von den Experten zitiert wurden

[1] Datenethikkommission: Gutachten der Datenethikkommission.

[2] Schwartmann R et al. (2020): MA HSH-Gutachten "Transparenz bei Medienintermediären". Medienanstalt Hamburg/Schleswig-Holstein.

Literaturstellen, die vom SMC zitiert wurden

[I] EUR-Lex: Richtlinie 2000/31/EG ("Richtlinie über den elektronischen Geschäftsverkehr").

[II] Corporate Europe Observatory und LobbyControl (15.12.2020): DSA/DMA: Wie Big Tech neue Regeln für digitale Plattformen verhindern will.

Weitere Recherchequellen

Europäische Kommission (03.12.2020): Europäischer Aktionsplan für Demokratie. Stärkung der Demokratien in der EU. Pressemitteilung.

Europäische Kommission (15.12.2020): Europe fit for the Digital Age: Commission proposes new rules for digital platforms. Pressemitteilung.