Moderator [00:00:00] Hallo liebe Journalistinnen und Journalisten, herzlich willkommen zu unserem virtuellen Press Briefing zu der Frage, wo es jetzt mit der EU-Digitalgesetzgebung hingehen soll. Mein Name ist Bastian Zimmermann. Ich bin Redakteur beim Science Media Center und ich habe [bei] mir noch die drei Experten hier. Ja, herzlich willkommen an Sie da draußen und schön, dass Sie da sind, Sie drei! Ich stelle Sie gleich noch einzeln vor. Aber jetzt erst noch mal kurz zum Thema und worüber wir heute überhaupt reden wollen. Die EU feilt ja seit Monaten und Jahren an wichtigen Digitalgesetzen. Das ist der Digital Services Act, Digital Markets Act, AI Act, Data Act – da gibt es sehr viele Acts. Zuletzt gab es dann ja auch den Vorschlag für die EU-Verordnung, um sexuellen Missbrauch von Kindern zu verhindern. Das ist dann vielleicht auch in Ermangelung eines anderen greifbaren Worts besser bekannt geworden als Chatkontrolle. Da ist das Feedback ja zum Teil sehr unterschiedlich gewesen. Der Digital Services Act, der wurde zum Teil gelobt, da wurden gute Ansätze attestiert, aber zum Teil natürlich auch noch Verbesserungspotenzial gesehen. Die Chatkontrolle wurde viel kritisiert. Daher wollten wir heute einmal mit den Experten sprechen. Einerseits, wo es überhaupt hingeht und wie einzelne Gesetze und die generelle Richtung der EU-Gesetzgebung in der Hinsicht zu beurteilen ist. Da geht es aber auch noch ein bisschen über die übergeordnete Perspektive. Also sind die Gesetzgebungsvorgänge überhaupt transparent? Also zum Beispiel der Digital Services Act und der Digital Markets Act wurden ja so ein bisschen als beschlossen kommuniziert, aber dann nur in der Pressemitteilung rausgegeben. Das volle Gesetz war dann erst mal nicht einsehbar. Beim Digital Markets Act ist es ja jetzt erschienen, aber zumindest beim Digital Services Act scheint es auch danach noch Änderungen gegeben zu haben. Also die Frage: Ist das nur ein Gefühl, dass das jetzt alles irgendwie ein bisschen schwerer greifbar und intransparenter geworden ist? Oder ist das ein Trend? Und kann man vielleicht die Gesetzgebung auch noch verbessern? Das sind unter anderem die Fragen für heute. Dann, bevor wir mit dem Vorstellen beginnen, noch der Hinweis an Sie da draußen, die Fragen bitte über die Fragefunktion von Zoom zu stellen, nicht über den Chat. Denn je nach Einstellung können das in dem Chat nicht alle sehen. Und bei der Fragefunktion können Ihre Kolleginnen und Kollegen dann auch Ihre Fragen sehen. Dann gibt es weniger Dopplungen. Also bitte das Frage-und-Antwort-Modul verwenden und nicht den Chat. Dann zu unseren drei Experten. Erst mal vielen Dank, dass Sie hier sind. Ich stelle Sie jetzt eben vor und erzähle auch noch mal kurz dazu, was jetzt Ihre spezielle Expertise in diesem Bereich ist. Alle haben ja auch den übergeordneten Blick und können sich zu den Fragen zur EU-Gesetzgebung äußern, aber eben auch kurz, wer worauf spezialisiert ist. Einmal haben wir Prof. Dr. Tobias Gostomzyk. Er ist Professor für Medienrecht an der Technischen Universität Dortmund. Und neben der juristischen Expertise hat er auch noch den Blick auf Kommunikationswissenschaften, Journalismus, insbesondere Wissenschaftsjournalismus. Dann haben wir Prof. Dr. Tobias Keber. Er ist Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft an der Hochschule der Medien in Stuttgart. Er ist heute unser Ansprechpartner für die Chatkontrolle und beschäftigt sich generell auch noch mit digitaler Ethik, Völkerrecht et cetera. Und zuletzt haben wir noch Prof. Dr. Matthias Kettemann, er ist Programmleiter im Forschungsprogramm "Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen" am Leibniz-Institut für Medienforschung, dem Hans-Bredow-Institut in Hamburg. Und er beschäftigt sich auch viel mit Plattformregulierung, dem Digital Services Act und dem Digital Markets Act. Schön, dass Sie alle hier sind. Ich fange mal mit Ihnen an, Herr Kettemann. Wir hatten ja auch im Vorgespräch darüber gesprochen, dass es bei der EU-Digitalgesetzgebung so ein bisschen Licht und Schatten gibt, also dass der Digital Services Act zum Beispiel eher positive Kritik bekommen hat, die Chatkontrolle eher negative. Wie sehen Sie denn jetzt den Digital Services Act und den Digital Markets Act generell und wie sehen Sie auch die Gesetzgebung in letzter Zeit? Finden Sie, dass es bei den beiden Gesetzen insbesondere etwas intransparent gewesen ist oder sagen Sie, das ist eigentlich ein normaler EU-Gesetzgebungsvorgang gewesen?
Matthias Kettemann [00:03:59] Mit diesen beiden Gesetzen, dem DSA und dem DMA, ist ein riesiger Schritt in Richtung fairere Märkte und bessere Onlineplattformen gemacht worden. Man liest von einem neuen Grundgesetz für das Internet. Und in der Tat ist es so, dass sich hier auf europäischer Ebene eine neue Qualität der Regulierung zeigt, die festhält an vielem Bewährten, wie zum Beispiel der Haftungsfreistellung für die Plattformen, die aber auch zeitgerecht eingeht auf die Herausforderungen. Wir haben in den letzten 15 Jahren gesehen, dass es nicht ausreicht, die Plattformen alleine zu lassen. Wir brauchen stärkere Pflichten, gerade was die Inhalte angeht, die nicht illegal sind. Und das ist auch der größte und wichtigste Schritt, den der DSA macht. Der sagt zu den Plattformen: Ihr könnt weiterhin eure Allgemeinen Geschäftsbedingungen, eure internen Regeln anwenden. Aber wenn es um diesen "lawful-but-awful-Bereich" geht, also um die Inhalte, die zwar noch rechtens sind, die also nicht vom Staat verboten werden, aber die, besonders wenn sie von den Empfehlungsalgorithmen stärker verteilt werden, zu schlechten gesellschaftlichen Folgen führen können, dann müsst ihr hinsichtlich dieser Inhalte Risikobewertungen machen, Krisenprotokolle machen. Ihr müsst begründen, welche Inhalte ihr entfernt. Es gibt ein Beschwerdeverfahren, Berichtspflichten. Und diese Unterscheidung ist wichtig. Und die kommt auch jetzt neu mit dem Digital Services Act, und der Digital Markets Act sorgt dafür, dass die großen Torwächter, die großen Gatekeeper, dass die nicht mehr alles machen dürfen, was sie wollen, die Apples unserer Zeit, die Amazons. Da wird jetzt für fairere Märkte gesorgt. Was wichtig ist, weil eines der Charakteristika der Onlinewelt ist, dass nicht nur starke Unternehmen auf offenen Märkten tätig sind, sondern sich Unternehmen eigene Märkte schaffen, eigene kleine Reiche, und dort mit Recht, mit Algorithmen, mit Macht ihre Prinzipien durchsetzen, ihre Prioritäten durchsetzen. Und DSA, DMA helfen, diese internen Regeln jetzt wieder etwas zu korrigieren, wieder einzunorden auf gesellschaftliche Werte. Das ist deswegen gut. Schlecht ist, wie das teilweise gemacht wurde. Gerade gegen Ende hin hat man gemerkt, dass das Verfahren intransparenter wurde, Änderungen in letzter Sekunde durchgedrückt, vorgenommen wurden. Nicht alle Änderungen waren schlecht, aber das Verfahren war zu schnell, zu intransparent. Die Tatsache, dass wir Wochen nach den entsprechenden Beschlüssen noch nicht finale Fassungen haben, über die wir diskutieren können, die wir kritisieren müssen, können – das ist ein schlechtes Vorgehen. Und das ist ein bisschen schade, weil das jetzt in das schöne, helle Licht des DSA, DMA so ein bisschen ein kritisches Dunkel hineinbringt.
Moderator [00:06:43] Ja, vielen Dank für die erste Einschätzung. Dann würde ich noch zu Herrn Keber kommen als Nächstes. Wie sehen Sie denn jetzt den Gesetzesvorschlag zur Chatkontrolle und generell auch die Berichterstattung über diese Themen? Gibt es da klassische Fallstricke oder Unklarheiten auch bei der Berichterstattung über EU-Gesetze, die vielleicht nicht sofort ersichtlich oder transparent sind?
Tobias Keber [00:07:07] Ja, das Erste ist, dass man festhält, die Chatkontrolle ist kein Measure innerhalb des DSA, sondern [sie] ist eine andere Ägide. Es geht um den Schutz von Kindern gegen dokumentierten Missbrauch im Internet. Dort ist die Kommission mit einem Vorschlag am 11. Mai ja vorgeprescht und sagt jetzt: Wir müssen mehr dagegen tun. Das Ganze wird unter der sogenannten Chatkontrolle diskutiert. Wir müssen mehr machen. Und wir müssen im Prinzip bei Messengern schauen, was die Leute kommunizieren. Und wenn dort problematisches Bildmaterial dabei ist oder es um Grooming geht, wenn also Erwachsene sich an Minderjährige heranmachen wollen, dann müssen wir hier durch technische Mittel intervenieren. Und dann ist natürlich die große Frage: Wie machen Sie das technisch? Und das ist auch schon der Grund für die Kritik. Das ist auch eine Verordnung, das ist übrigens generell der neue Trend, die ganzen neuen digitalen Mechanismen der Gesetzgebung sind in der Regel Verordnungen und nicht mehr Richtlinien wie früher, müssen also nicht mehr umgesetzt werden, sondern es stellt unmittelbar geltendes Recht dar. Und in dieser neuen Verordnung bei der Chatkontrolle geht es jetzt um die Frage: Wie setzt man das technisch um, wie kann man das überhaupt? Die Verordnung ist an der Stelle ja sehr abstrakt. Und je nachdem, wie Sie das machen, kann das schon dazu führen, dass die Ende-zu-Ende-Verschlüsselung, die wir uns ja erkämpft haben bei den Messengern, damit konfligiert. Und damit sehen Sie auch ein Grundproblem der Digitalgesetzgebung. Das hat auch der DSA. Da geht es auch um Jugendschutz, zum Teil, dass hier verschiedene Bereiche konfligieren, dass sie auf der einen Seite sagen, sie wollen mehr Jugendschutz und deswegen wollen sie eine Altersverifikation, dass das aber nur geht mit Daten, und dass dann der Datenschutz um die Ecke kommt und sagt: Ja, dann kann ich aber gar nicht mehr anonym dabei sein. Und das heißt also, Sie haben hier zum Teil Bruchstellen, die man diskutieren muss.
Moderator [00:09:16] Ja, vielen Dank. Und dann noch zuletzt zum Eingangsstatement, Herr Gostomzyk. Es gibt da ja noch viele andere Gesetze, den Data Act, den AI Act. Haben Sie den Eindruck, momentan ist das eine wichtige Phase, also drängt da die EU? Und das, was jetzt passiert, prägt eigentlich die digitale Regulierung für die nächsten Jahre? Und als Zweites: Haben Sie den Eindruck, die Gesetze sind medial oft schwer greifbar? Und dann vielleicht noch die Frage: Wieso, und ob man da was gegen machen könnte?
Tobias Gostomzyk [00:09:47] Ja, definitiv hat man hier eine Festsetzung für die nächsten Jahre. Also beim DSA ist es ja so, dass die Vorgängergesetzgebung, die E-Commerce-Richtlinie, wirklich Jahrzehnte Bestand hatte, bevor sie jetzt abgelöst worden ist. Und man kann davon ausgehen, dass die Gesetzgebung, die jetzt stattfindet, in den Grundfesten auch über die nächsten Jahre hinweg tragen wird. Was macht die Berichterstattung hier aus? Wenn man die Berichterstattung generell sich anguckt, geht es erst mal darum, dann eine öffentliche Aufgabe zu erfüllen, am Meinungsbildungsprozess mitzuwirken, Informationen zur Verfügung zu stellen, die hierfür wichtig sind, und auch Kritik und Kontrolle zu ermöglichen. Aber Berichterstattung hat natürlich auch die Zielsetzung, Aufmerksamkeit zu binden. Schon aus ökonomischen Gründen ist das wichtig. Also wie geht man damit um, wenn das die Rahmenbedingungen sind und man 1:30 für einen Audiobeitrag hat oder 6000 Zeichen, was schon viel wäre für einen Onlinebeitrag, und der geleakte Entwurf des DSA, der möglicherweise dem finalen Entwurf entsprechen wird, 603 Seiten hat. Dann bleibt es ja nur noch möglich, dass man radikal eine Auswahl trifft, sich auf Grundanliegen bezieht, besondere Regelungsgegenstände herausgreift, aber das nur sehr selektiv tun kann. Und dass man dann bewertet: Ist das Ganze eher gut oder eher schlecht? Und das lautet dann in der Berichterstattung ungefähr so, dass es eine Zeitenwende vielleicht auch hier gibt, die eingeläutet wird, dass es für Netznutzer*innen viele Fortschritte gibt, aber dass die Wirtschaft auch verbraucherfreundliche Regelungen oder auch jugendschutzfreundliche Regelungen et cetera verhindert hat. Und dann folgen noch so ein paar Beispiele dazu. Und es ist also natürlich so, dass eine genauere Auseinandersetzung hier nicht gelingen kann und dass man radikal die Komplexität reduzieren muss. Und wenn man das zum Qualitätskriterium macht der Berichterstattung, dann fällt die Kritik natürlich sehr, sehr leicht. Da muss die Berichterstattung von vornherein scheitern. Was ließe sich also verbessern? Kann man sich auch fragen. Man könnte natürlich besser einordnen, Begriffe genauer erklären, sie richtig verwenden, die richtigen Expert*innen am besten nach Rücksprache mit dem Science Media Center dann zu Wort kommen lassen. Aber das Grundproblem wäre damit wahrscheinlich immer noch nicht gelöst, denn die Aufmerksamkeit ist begrenzt, der Platz in den Medien auch, die Digital-Themen sind nicht die einzigen Themen – obwohl wir das hier natürlich in dieser Runde meinen – die wichtig sind. Es gibt auch Corona und den Krieg in der Ukraine. Und da stellt sich die Frage: Was ist also Allgemeinwissen und was ist eher Wissen für Spezialisten? Und so bleibt vielleicht am Ende noch der Ausblick, das macht mein Kollege Holger Wormer immer gerne, der sagt, dass der Wissenschaftsjournalismus generell sehr viele Parallelen hat zu den Funktionsweisen der Wissenschaft. Und hier wären wir ja in einer Situation, wo gerade im juristischen Kontext die Kommentierungen beginnen, also Herr Kettemann wird auch einen Kommentar herausgeben, DSA- und DMA-Kommentar zusammen mit anderen. Und der Prozess also eintritt, wo diese 603 Seiten und die vielen Artikel, die es dazu gibt, auch in sich geschlossen natürlich überhaupt nicht nur stringent sind, sondern erläuterungsbedürftig. Und die Frage sich stellt, wie man davon wegkommt, jetzt nur am 24.04., also an dem Tag – war dann auch noch am Wochenende – der finalen Einigung über den DSA und weitere Digitalgesetzgebung an anderen Tagen dann berichtet, also wenn es den aktuellen Aufhänger gibt, sondern dass man das von Themen entkoppelt macht. Und wenn das ganze Thema über Jahre hinweg transparent ist und Anlass für Auseinandersetzung bietet, stellt sich auch die Frage, ob man dort nicht ein Dossier auflegt und zumindest wenn das die Nachfrage hat, auch von Seiten des Marktes und von Seiten der Nutzer*innen.
Moderator [00:13:59] Und da gab es direkt die Nachfrage im Chat schon, wer denn die richtigen – in Anführungszeichen – Experten sind und wer die falschen? Und dann von mir natürlich auch die Frage, wie man das vielleicht erkennen kann.
Tobias Gostomzyk [00:14:11] Ach so, ja, wie sollte man es erkennen? Erst mal würde ich danach gucken, wer schon zu bestimmten Themen publiziert hat. Das würde auf jeden Fall sicherstellen, dass da schon eine intensivere Auseinandersetzung stattgefunden hat. Die Frage ist natürlich weiterhin, ob dann die Stellungnahmen, die Sie dort erhalten, auch medienadäquat entsprechend sind. Da [werden], weiß man jedenfalls aus der Expertenforschung, immer gerne diejenigen gefragt, die möglichst schnell da sind und erreichbar sind. Hier kann es natürlich Unterschiede geben, weil die Bereitschaft, dass die dafür gegeben ist, nicht mit anderen Produktionsrhythmen auch tatsächlich übereinstimmen müssen. Aber das sind natürlich immer Fragen der fachlichen Ausgewiesenheit, der entsprechenden Expertise, ob es schon weitere Stellungnahmen gibt in bestimmten Bereichen. Das, würde ich sagen, sind auf jeden Fall, für Medien jedenfalls, relevante Kriterien. Wenn ich einen guten Anwalt oder Anwältin suchen würde, dann würde ich immer raten: Gehen Sie zu dem Gericht, mit dem Sie dort beschäftigt sind, und fragen Sie die Richter*innen. Und wenn die sagen, das ist ein guter Anwalt, eine gute Anwältin, dann hat man da gute Chancen. Und hier in dem Bereich könnte man auch andere Wissenschaftler*innen fragen, selbst wenn sie nicht Zeit haben für ein Statement, sich dort weitere Empfehlungen geben zu lassen.
Matthias Kettemann [00:15:35] Vielleicht noch ergänzend, gerade in unserem Feld, dem Internet- und dem Medienrecht: Wir veröffentlichen sehr viel auch online. Das heißt, wenn der Name im Kontext mit einem Suchbegriff vorkommt, dann ist es meistens ein Zeichen, dass der Mensch schon dazu gearbeitet hat. Also Leute, die nicht mit "DSA und der eigene Name" auf Google gefunden werden können, die haben vielleicht in letzter Zeit nicht so viel zum DSA geschrieben. Und dann bin ich wirklich auch – da würde ich den Kollegen unterstützen – ein großer Fan dieses Schneeballprinzips, dass man, wenn man mal jemanden kennt, dann fragt: Und mit wem soll ich denn noch reden? Weil wir kennen uns ja auch untereinander ein bisschen.
Moderator [00:16:11] Dazu eine kurze Nachfrage, vielleicht an Sie, Herr Keber: Da muss man ja auch so ein bisschen abwägen, weil zum Beispiel bei Chatkontrolle gibt es einfach sehr viele Leute, die sich aus sehr vielen verschiedenen Perspektiven dazu äußern. Also der Chaos Computer Club geht dann mit [seiner] Perspektive auf das Problem für die Verschlüsselung. Dann gibt es irgendwelche Ermittler, die dann natürlich mit dem Potenzial für die Ermittlungsbehörden draufgucken. Dann gibt es Organisationen, die sich primär um das Wohl der Kinder sorgen. Und dann gibt es natürlich noch die Juristinnen und Juristen. Kann man das irgendwie abwägen, was da jetzt wichtig ist? Ach ja, und natürlich die politischen Statements, die habe ich jetzt auch noch vergessen. Kann man das irgendwie abwägen? Oder würden Sie sagen, da gibt es weniger von dem einen und zu viel von dem anderen?
Tobias Keber [00:16:54] Na ja, es ist zumindest die Aufgabe der Medien, da auch ein bisschen Ordnung reinzubringen und auch zu erklären in der Berichterstattung, wenn man zum Beispiel jemanden zu Wort kommen lässt vom Chaos Computer Club – das sind gute Leute, die sind technisch sehr, sehr ausgewiesen –, ob die dann den Unterschied zwischen einer Richtlinie und einer Verordnung kennen? Ja, nicht zwingend. Und das heißt, das muss man so ein bisschen einfangen und muss dann auch in der Berichterstattung des Chaos Computer Clubs, wenn es dann heißt, die EU plant, etwas zu tun, dann fehlt dann so ein bisschen das juristische Korrektiv, das dann sagt: Ja, Moment, wir haben einen Vorschlag der Kommission, wir stehen im Gesetzgebungsverfahren ganz am Anfang. Das weiß jeder Jurist, nur draußen wissen es die Menschen zum Teil nicht. Dass man dann sagt: Es kann sich noch viel bewegen. Das Parlament hat eine Auffassung, der Rat hat eine Auffassung. Und bis in zwei Jahren das finale Dokument da ist, dann schauen wir uns das noch mal an, was dann am Ende des Tages dageblieben ist von der Chatkontrolle, nachdem auch – haben wir ja in der Berichterstattung heute schon gehört – unter anderem einige Minister auch bei uns Bedenken beim Datenschutz haben. Da fließt noch viel Wasser, wie man so schön sagt, hinab. Da braucht man manchmal so ein bisschen ein Korrektiv, und das ist auch so ein bisschen die Aufgabe der Medien, dieses Korrektiv dann auch entsprechend abzubilden, die technische Seite abzubilden, die juristische Seite abzubilden, die politische, die vielleicht in einer bestimmten Art und Weise denkt und die natürlich was tun muss und will gegen Kindesmissbrauch, aber eben nicht um jeden Preis. Man muss dann das ganze Feld ein bisschen weiter darstellen.
Moderator [00:18:35] Und es gab noch die konkrete Nachfrage, ob es irgendwelche falschen Experten [gibt], also ob das jetzt als Aussage zu interpretieren ist, dass da irgendwelche falschen Experten zu Wort gekommen wären? Vielleicht auch an Sie, Herr Gostomzyk, weil Sie das anfangs mit den Experten gesagt hatten. Gibt es ein konkretes Beispiel, das Ihnen einfällt?
Tobias Gostomzyk [00:18:54] Nein, das möchte ich gar nicht sagen. Also das war nur eine Frage, wie man Qualität in die Berichterstattung hineinbekommt. Und erfahrungsgemäß ist es ja nicht nur der O-Ton von zwei Zeilen, um den es dann geht, sondern eben auch die gesamte Erläuterung, eine halbe Stunde noch außenrum, die mit eine Rolle spielt für die Berichterstattung. Und deswegen habe ich gesagt, "die richtigen Experten", weil das sich in der Qualität häufig der Berichterstattung unmittelbar auch niederschlagen kann. Das war jetzt nicht der Ansatzpunkt, dass ich sagen würde, da laufen falsche Experten rum. Dafür habe ich auch keinen gesamten Überblick. Das wäre jetzt einfach viel zu viel gesagt. Da, wo ich Medien konsumiere, da kommen schon, würde ich sagen, die richtigen Experten zu Wort. Herr Kettemann und Herr Keber, zum Beispiel.
Moderator [00:19:54] Ja, genau. Schön wäre es. Wir hatten auch noch eine andere Frage, und zwar zum Digital Services Act. Herr Kettemann, […] was glauben Sie, was wurde da denn konkret jetzt zu wenig oder zu viel betont beim Digital Services Act?
Matthias Kettemann [00:20:13] Ja, das kommt natürlich ganz auf die Länge der jeweiligen Artikel [an], die man zur Verfügung hat. Mir kommt [es so] vor, dass […] die Berichterstattung in den deutschen Medien im Großen und Ganzen sehr gut war, dass die sogar noch detaillierter war, als man es teilweise erwarten konnte von der doch bestehenden Komplexität der Materie. Was ich mir noch ein bisschen mehr gewünscht hätte, wäre stärker auf die ökonomische Dimension einzugehen und zu hinterfragen, warum etwa Maßnahmen zu mehr Fairness in Werbemärkten nicht so viel Nachhall gefunden haben, weil die Plattformen jetzt ja auch bezüglich der zielgerichteten Werbung stärker informieren müssen. Was mir noch ein bisschen abgegangen ist, ist der wichtige Bereich der algorithmischen Regulierung. Die Plattformen müssen jetzt sehr viel mehr darüber informieren, was für Empfehlungsalgorithmen sie verwenden, worauf die optimiert sind. Und das halte ich für eine ganz zentrale Zukunftsfrage, weil hier darüber verhandelt wird, nach welchen Prinzipien die im öffentlichen Diskurs fairer beherrscht werden. Jetzt wissen wir ausreichend, dass die Regeln, die die privaten Akteure setzen – das wissen wir jetzt nicht nur dank Elon Musks Versuchen, hier für Freiheit zu sorgen, was er nicht kann, auch dank dem DSA – wir wissen, dass die Regeln, die die Plattformen setzen, wichtig sind. Wir haben noch zu wenig, glaube ich, in der Öffentlichkeit erkannt oder der Öffentlichkeit vermittelt, dass die algorithmischen Empfehlungssysteme einen enormen Einfluss darauf haben, wie online kommuniziert wird, was man sieht, was verschwindet. Und da hilft jetzt der DSA schon ein bisschen. Da, denke ich, sollte man noch ein bisschen tiefer bohren – beim Einfluss von Algorithmen auf Vielfalt, auf den Meinungskampf online.
Moderator [00:22:03] Dann eine Frage an Sie, Herr Keber: Der EuGH hat bereits einmal Uploadfilter im Zusammenhang mit dem Urheberrecht nach Artikel 17 als rechtskonform bewertet, sagt der Fragesteller. Könnten Ihrer Einstellung nach Uploadfilter anstelle des Client-Side-Scanning dazu genutzt werden, eine Chatkontrolle rechtlich durchzusetzen und damit dann die Ende-zu-Ende Verschlüsselung de facto abzuschaffen?
Tobias Keber [00:22:26] Bei Urteilen des EuGH muss man erstmal immer sehr genau hingucken in welchem Kontext die ergangen sind und welche Frage der EuGH beantwortet hat und welche nicht. Wenn das zum Beispiel Vorlagefragen sind, dann beantwortet der EuGH eben nur die vorgelegte Frage. Dann ist es schwierig, einen Schluss letztlich zu machen, dass man sagt: Der EuGH hat Uploadfilter in jeder erdenklichen Konstellation für möglich gehalten. Das hat er auch in diesem Verfahren so nicht gesagt. Und der EuGH ist auch gerade dann sehr vorsichtig, wenn es um Grundrechtsabwägungen im Einzelfall geht. Dann gibt er im Prinzip einen groben Rahmen vor, sagt dann aber: Die Abwägung im Einzelfall machen bitte die nationalen Gerichte. Von daher muss man erstmal immer gucken, was hat der EuGH da grundsätzlich gesagt. Das ist das erste. Das zweite, der Kontext ist natürlich ein ganz anderer, Urheberrecht. Auch wenn Sperren immer gegen verschiedene Dinge denkbar sind und das Urheberrecht ist da gerne dabei. Früher hat man Kinderpornografie gesagt, jetzt sagt man richtigerweise dokumentierter Kindesmissbrauch. Das heißt, das kennen wir netzpolitisch schon lange diese Mechanismen. Man kann aber nicht das eine auf das andere eins zu eins übertragen und die Datenschutzimplikationen, die sind bei der Chatkontrolle schon immens. Also wenn die tatsächlich dazu führen würde, diese Verordnung, wenn sie fertig wäre und genauso verabschiedet wäre wie sie vorgeschlagen ist, dann würde sie zumindest negative Anreize setzen faktisch für Ende-zu-Ende-Verschlüsselung. Weil das ja so problematisch wäre, die aufzuheben beziehungsweise dann mit Mechanismen, wie Sie die auch in der Quellen-TKÜ haben, also sie müssen dann Maßnahmen implementieren auf den lokalen Geräten, da muss bevor abgesandt wird kontrolliert werden. Die Implikationen sind schon hoch und ich könnte mir vorstellen, dass der EuGH da, weil er dem Datenschutz schon auch sehr verpflichtet ist, Vorbehalte hätte.
Moderator [00:24:36] Da hätte ich direkt eine Nachfrage dazu und zwar zu dem Begriff der Verhältnismäßigkeit. Das finde ich immer sehr interessant. Da ist auch immer die Rede davon, das wird bei der Chatkontrolle auch immer betont. Können Sie dazu was sagen? Also wie wird das [abgewägt] und geht das überhaupt? Weil man weiß zum Teil gar nicht genug über die Wirkung solcher Maßnahmen, um die Verhältnismäßigkeit vielleicht gut beurteilen zu können. Wenn man gar nicht weiß, wie viel das bei den Ermittlungen überhaupt hilft, ist es schwierig, das gegen den Datenschutz abzuwägen. Dann natürlich auch die Frage, inwiefern das vereinbar ist mit dem Koalitionsvertrag der DSGVO. Also da so ein bisschen zur Verhältnismäßigkeit. Können Sie dazu etwas sagen?
Tobias Keber [00:25:14] Die Verhältnismäßigkeit ist zunächst einmal ein allgemeiner Rechtsgrundsatz. Das haben Sie im nationalen Verfassungsrecht, Sie haben das auch auf internationaler Ebene, wenn Sie Grundrechte, europäische Grundrechte, wenn Sie Menschenrechte prüfen. Die kollidieren ganz gerne mal und da muss man abwägen und da gibt es eine Verhältnismäßigkeitsprüfung. Und da muss man sich fragen, ist eine bestimmte Maßnahme geeignet, ein bestimmtes Ziel zu erreichen? Ist es dann erforderlich, das heißt, gibt es mildere Mittel? Und ist es alles in allem angemessen? Und jetzt kann man natürlich sagen: Wie sieht es mit der Eignung aus? Wo findet denn dieser Kindesmissbrauch im Internet tatsächlich statt? Also was macht die Verordnung? Der Vorschlag enthält eigentlich viel mehr, aber er fokussiert vor allem die Messenger. Dann wäre also die Grundannahme: Wird dieses Material vornehmlich über Messenger überhaupt kommuniziert? Und da kann man schon Zweifel haben. Wenn Sie die Ermittler fragen, dann sagen die: Ja, so was kommt schon einmal vor bei WhatsApp, schon richtig, aber im Großen und Ganzen werden im Dark Web einfach nur Links getauscht und diese Links führen zu Dateien, die bei Hostern, die im Clear Web – also in dem Web, in dem wir uns auch alle bewegen – abgelegt sind, verschlüsselt und im Darknet verteile ich eben nur die Links dazu. Dann muss man sich die Frage stellen: Gut, und wenn das die Konstellation ist, wo am meisten kriminelles Verhalten, dem hier begegnet werden soll, entsteht, ist diese Verordnung an der Stelle geeignet, das aufzubrechen? Das muss man sich dann genau angucken. Es ist dann auch die Frage, wie das technisch geht. Aber die Verhältnismäßigkeitsprüfung ist eben eine, die man über jede Maßnahme nochmal drüber legen muss.
Moderator [00:27:06] Jetzt haben wir hier eine Frage, das geht jetzt so ein bisschen zur Desinformation. Da hatten wir im Vorhinein noch gesagt, da können wir uns nur begrenzt zu äußern, weil wir es eben nur aus juristischer Perspektive können aber ich weiß, Herr Gostomzyk, Sie sind auch in einem Forschungsprojekt zum Thema Desinformation, deswegen würde ich die Frage an Sie mal stellen: Ob der Digital Services Act Ihrer Ansicht nach helfen wird, gegen Desinformation vorzugehen, also dem, was Sie, Herr Kettemann, auch als diese nicht strafbaren, aber problematischen Inhalte definiert haben. Also gerne Sie, Herr Gostomzyk, und Sie [Herr Kettemann] können dann noch ergänzen, wenn Sie wollen.
Tobias Gostomzyk [00:27:36] Da gibt es definitiv Ansatzpunkte. Der erste Schritt wäre das Filtern von Desinformation. Also hier gibt es vielleicht keinen Ansatzpunkt, dass [der DSA] in dem Sinne hilft, aber, dass man jedenfalls mehr verstehen können soll über die Filterpraktiken der Plattformen. Das wäre ein Ansatzpunkt. Der nächste Ansatzpunkt ist, wenn [...] eine Information veröffentlicht worden ist und sie im Nachhinein gelöscht wird, kann das natürlich auf Grundlage der Community Standards geschehen. Da gibt es auch Ansatzpunkte. Der interessanteste Punkt für mich ist aber, dass es jetzt eine neue Vorschrift gibt, die vertrauenswürdigen Hinweisgebern, also zum Beispiel dann Medien oder auch Rechercheverbünden wie Correctiv einen Rechtsstatus gibt für das professionell betriebene Faktenchecking. [...] Bislang jedenfalls hat man sich darüber gestritten, wo kommt eigentlich die Legitimation her? Recherchebüros sind beauftragt worden von Facebook oder von YouTube oder von anderen Plattformen, Fakten zu checken. Und das Faktenchecken hat auch eine Auswirkung dadurch, dass dann Posts gekennzeichnet worden sind oder dass Reichweiten eingeschränkt worden sind. Aber die Frage und die Plattformen haben dadurch natürlich auch ihre Verantwortung erst mal delegiert in dem Moment, in dem das andere gecheckt haben. Dann wird gesagt: Ja, da gibt es eine Rückbindung an die Gesellschaft. Aber die Grundfrage besteht trotzdem: Wo kommt eigentlich die Legitimation her? Und da haben sich ja Gerichte, die darüber hätten entscheiden können, nämlich das Landgericht Mannheim und das OLG in Karlsruhe sehr zurückgehalten, was diese institutionelle Frage betrifft. Die ist jetzt aber geklärt über den DSA, dass es eben so etwas gibt wie vertrauenswürdige Hinweisgeber, die auch bestimmte Kriterien erfüllen sollen, um dieses Vertrauen auch erst einmal zu verdienen, aber dann eben auch dafür eingesetzt werden können, um im Faktenchecking tätig zu sein. Und dann gibt es natürlich noch die großen Desinformationskampagnen und hier würde ich an Herrn Kettemann übergeben.
Matthias Kettemann [00:29:52] Die Desinformationskampagnen, dafür bin ich natürlich nicht verantwortlich, aber wir können gerne darüber reden. Ergänzend noch: In dem DSA sind einige der von mir vorher angesprochenen neuen Pflichten von digitalen Diensten. [Diese] haben unmittelbar eine Wirkung auf die Art und Weise, wie sich dort Desinformation verbreitet. Das beginnt bei den Risikoassessments, weil explizit im DSA drin steht, dass ein Risikoassessment, das die Plattformen abgeben müssen, auch die Wirkung ihrer Regeln und ihrer Algorithmen, also auch ihre Empfehlungssysteme für die öffentliche Gesundheit, für demokratische Diskurse und demokratische Selbstvergewisserung umschließt. Das heißt die Plattformen [...] müssen die Hosen runterlassen und sagen: "Okay, was kann ich sagen über meine Algorithmen? Wie wirken sich die aus? Was passiert, wenn drei Tage vor der Wahl plötzlich ein großes Leak kommt? Verbreitet sich das überall? Kann ich das beenden? Habe ich etwa, wenn Terrorbilder verbreitet werden oder Terrorvideos, habe ich da ein Notfallkonzept, das sicherstellt, dass sich das Video nicht verbreitet?" Maßnahmen gegen missbräuchliche Accounts, auch zu denen werden die Plattformen verpflichtet, und auch das hilft dann sehr stark, weil die Plattformen ja intern Desinformationskampagnen regelmäßig als koordiniertes und inauthentisches Verhalten beschreiben, damit es auch als Missbrauch beschreiben, über das sie entsprechend dann intern den Stock brechen können. Also ja, da tut sich auch im Bereich Desinformationskampf einiges. Wie genau sich das auswirken wird, ist sehr schwer zu sagen. Auch deswegen, weil wir heutzutage schon sehr wenig an echten Zahlen dazu haben und echte, wirklich belastbare Forschung über die konkrete Auswirkung von Desinformation. Das ist echt schwer. Manchmal redet man etwas zu viel darüber, aber das hilft jedenfalls.
Tobias Keber [00:31:51] Vielleicht noch ergänzend dazu ganz interessant: Desinformation, da muss man sich erst einmal fragen: Was ist das überhaupt? Eine Definition wird im DSA nicht definiert [und] kommt auch nur in den Erwägungsgründen vor – da ziemlich häufig. Aber es gibt an anderer Stelle diesen neuen Crisis Response Mechanism, [mit dem] man zum Beispiel gegen russische Propaganda vorgehen könnte, wenn das dann von der Vorschrift adressiert wird. An der Stelle hat man zumindest auch die Definition einer Krise, aber da wird es dann auch schwer. Und da bin ich bei Herr Kettemann: Da haben Sie verschiedene Akteure, also dieses Risk Assessment. Inwieweit gießt die Plattform Öl ins Feuer für russische Staatspropaganda? Welche Measures muss man vor diesem Hintergrund annehmen? Da gibt es dann ein weites Ermessen, zunächst mal des Providers, aber die Kommission kann da auch in Dialog treten. Also da gibt es schon komplexe Abstimmungsverfahren, [bei denen] wir erstmal schauen müssen, ob die in der Praxis dann wirklich so funktionieren.
Moderator [00:32:59] Wir hatten da noch eine Frage [...] zur Chatkontrolle und zwar, wie es da mit den rechtlichen Konflikten beziehungsweise Schwierigkeiten bei einer Einführung in Deutschland aussieht. Auch insbesondere in Hinblick auf das vereinbarte Recht auf Ende-zu-Ende-Verschlüsselung im Koalitionsvertrag, also inwiefern diese möglichen Kollisionen da gelöst werden könnten.
Tobias Keber [00:33:21] Die simple Antwort ist: [...] Der Koalitionsvertrag ist ein juristisches Nullum, [er] ist eine politische Absichtserklärung. Das ist schön, das ist politisch bestimmt auch wichtig, dass man sich daran hält. [Er] ist aber kein juristisch durchsetzbarer Vertrag in dem Sinne. Eine Verordnung ist ein Rechtsakt der Europäischen Union, der unmittelbar verbindlich ist. Also da sticht dann die Verordnung.
Moderator [00:33:49] Und auch noch eine kurze Nachfrage, ob es ähnliche Datenschutz- oder Persönlichkeitsrechtsbedenken – auf die Sie bereits hingewiesen haben im Bereich der Chatkontrolle – auch außerhalb von Deutschland gibt.
Tobias Keber [00:34:04] Also die Bedenken am Datenschutz?
Moderator [00:34:09] Ich verstehe das so: Die Bedenken, dass die Chatkontrolle sich negativ auf Datenschutz und Persönlichkeitsrechte auswirken kann.
Tobias Keber [00:34:15] Also ich kann Ihnen jetzt nicht mit Sicherheit sagen, ob die Diskussion [zur Chatkontrolle] eins zu eins in Frankreich und Italien [...] genauso geführt wird. Es gab tatsächlich – vielleicht zielt das darauf ab – Unterschiede bei der Reform des Urheberrechts, was in dem Fall eine Richtlinie war. Da sind die Debatten sehr unterschiedlich geführt worden. Da waren wir sehr kritisch bei den Uploadfiltern in Deutschland, in Frankreich weit weniger. Wie das jetzt bei der Chatkontrolle ist, kann ich Ihnen nicht eins zu eins sagen. Gut, wir sind – was den Datenschutz angeht – in Deutschland sehr sensibilisiert und in anderen europäischen Staaten vielleicht ein ganz klein bisschen weniger. Aber trotzdem halte ich die Implikationen der Chatkontrolle beim Datenschutz schon für signifikant.
Moderator [00:34:59] Dann vielleicht eine Frage wieder an Sie, Herr Gostomzyk. Wir hatten ja eben gesagt, der Prozess sei so intransparent gewesen, also bei der EU-Gesetzgebung ein bisschen. Wieso ist das so? Wer hat daran Interesse und welche Rolle spielen auch Lobbyisten bei diesen Entwürfen?
Tobias Gostomzyk [00:35:18] Es gibt natürlich Stellungnahmen von allen möglichen Seiten. Das liegt auf der Hand. Und die Seiten, die über besondere Wissensressourcen verfügen oder besondere Geldressourcen, diese Kompetenzen aufzubauen, haben auf jeden Fall bessere Möglichkeiten, dann auch Papiere miteinzureichen. Immer bei diesem Gesetzgebungsverfahren – und das war ja auch bei anderen Großakten der DSGVO et cetera auch schon der Fall – gibt es viele Abstimmungserfordernisse, die zu nehmen sind: Mit unterschiedlichen nationalen Interessen, die miteinfließen, mit unterschiedlichen Schwerpunktsetzungen, Wirtschaftsinteressen kontra Verbraucherschutzinteressen, die mit einzubeziehen sind. Aber die Grundfrage ist natürlich, wie kommuniziert wird in diesen Abstimmungsprozessen. Wenn nicht nach außen hin im Detail nachvollziehbar ist, wann welche Regelung eingeführt worden ist und aus welchen Gründen es dort zu Änderungen gekommen ist oder über ein Dokument abgestimmt wird oder gesagt wird, es sei jetzt beschlossen worden und es liegt aber noch gar nicht vor und man kann darauf keinen Bezug nehmen – dann ist das natürlich suboptimal. Die Abstimmungsprozesse im Einzelnen in Bezug auf den DSA zum Beispiel sind für mich aber nicht einsehbar. Also ich bin da nicht unmittelbar daran beteiligt und deswegen kann ich nicht mehr dazu sagen.
Moderator [00:36:53] Herr Kettemann, sehen Sie das ähnlich?
Matthias Kettemann [00:36:57] Es ist natürlich immer eine Abwägung. Man kann nicht gänzliche Transparenz fordern. Auch in einem nationalen Parlament wäre das weder möglich noch sinnvoll. Was wir aber fordern können ist, dass wenn schon groß über die Einigung berichtet wird auf bestimmte Klauseln, dann kann man fordern, dass zumindest eine eine möglichst finale Fassung – [auch] wenn die natürlich später der juristischen und sprachlichen Kontrolle unterworfen wird –, dass die dann mitveröffentlicht wird. [...] Die Optik war nicht schön, sozusagen. Die Politik hat gesagt: Jetzt haben wir uns darauf geeinigt und euch in der Öffentlichkeit werden wir schon noch mal die finale Fassung zukommen lassen. Das ist einfach unglücklich. Mehr Transparenz zu fordern ist immer gut. Die EU ist ohnedies in vielen Bereichen schon nationalen Parlamenten etwas überlegen. In manchen Bereichen kann der Bundestag noch lernen vom Europaparlament. Und ich stehe dazu, zu kritisieren, wie der Prozess gelaufen ist im DSA und DMA. [Das] kann die EU besser machen, sollte sie besser machen, wenn es sich auf den Data Act und den AI-Act [...] bezieht.
Moderator [00:38:10] Dann noch eine konkrete Nachfrage an Sie, Herr Keber: Sie sagten, es sei bei der Chatkontrolle erst der Anfang des Gesetzgebungsverfahrens. Wie stehen die Chancen, dass die Chatkontrolle noch verhindert wird [...]?
Tobias Keber [00:38:22] Das ist Kaffeesatzleserei. Das kommt darauf an, wie [sehr] das Parlament sich gegen diesen Entwurf stark macht. Und das kommt darauf an, wie stark auch noch im Rat Bedenken kommuniziert werden. Das finde ich schwer zu sagen. Ich kann vielleicht sagen, dass ich nicht glaube, dass der Text, so wie er momentan vorliegt, eins zu eins am Schluss in geltendes Recht gegossen sein wird. Das glaube ich nicht.
Moderator [00:38:55] Dann vielleicht noch eine Frage an Sie, Herr Gostomzyk. Wir hatten ja ein bisschen über die intransparenten Vorgänge gesprochen. Wie kann der Journalismus damit umgehen? Es sind wichtige Gesetze und es ist wichtig, darüber zu berichten. Aber manchmal hat man noch gar nicht die Informationen. Gibt es irgendeinen Mittelweg, wie der Journalismus trotzdem sinnvoll der Vermittlungsfunktion nachkommen kann oder irgendwas, das berücksichtigt werden sollte?
Tobias Gostomzyk [00:39:19] Das wichtigste Mittel ist immer, aktiv auf die mangelnde Transparenz hinzuweisen und darauf hinzuweisen, dass da eine Einigung erzielt worden ist [und] man davon ausgeht, dass Kernbereiche unverändert geblieben sind, weil nichts anderes kommuniziert worden ist. Aber ansonsten [sollte man] das genauso [mitanmahnen] und möglicherweise auch die Pressearbeit nötigen, ein Mindestmaß an Information weiterzugeben. [...] Die Berichterstattungsmöglichkeiten sind beschränkt, [darauf] habe ich ja schon vorab hingewiesen. Deswegen ist das jetzt meistens nicht so relevant, eine Detailformulierung zu haben. Es sei denn, in der Detailformulierung steckt tatsächlich ein politischer Skandal, weil irgendetwas noch eingeführt worden ist, womit überhaupt niemand gerechnet hat. Dann sieht es natürlich anders aus. Aber ansonsten würde ich einfach darauf hinweisen und sagen: Es ist nicht optimal, wenn über etwas beschlossen wird und gar nicht klar ist, [worüber] beschlossen [wurde]. Dann kann man ja eine vorläufige Fassung herausgeben, die man anschließend mit der endgültigen Fassung [vergleichen kann]. Das ist ein einfacher Weg, den man da nehmen könnte. Das, was am meisten hilft, ist aktiv darauf hinzuweisen.
Moderator [00:40:44] Ist das mit der mangelnden Transparenz ein neues Problem? Nimmt das zu oder gab es das eigentlich immer schon und jetzt fällt es nur auf, weil gerade sehr viele Digitalgesetze auf einen ähnlichen Zeitpunkt fallen?
Tobias Gostomzyk [00:41:00] Herr Kettemann hat schon richtig gesagt, dass die EU sich auf jeden Fall schon bemüht, immer verschiedene Dokumente zu datieren und herauszugeben, eine Timeline zu benennen, sodass auch klar ist, wo Eingaben [sind], dass die abrufbar sind, und so weiter. Also da gibt es wirklich eine deutliche Entwicklung, an die sich auch die nationalen Gesetzgeber inzwischen auch halten. Und auch zum Beispiel, [dass] bestimmte Änderungsprozesse im Zuge eines Gesetzgebungsverfahrens dokumentiert werden. Das ist ja an sich schon ein Vorteil. Was auf jeden Fall unnötig ist, was man vielleicht aus dem politischen Prozess verstehen kann, ist, dass man einen Druck braucht und dann die Sitzung in der Nacht [abhält], damit es dann zu einer Einigung kommt, weil alle keine Lust mehr haben, sich jetzt nicht mehr zu einigen. Das ist vielleicht politisch verständlich. Aber dass man eine Stellungnahmefrist hat – und das betrifft dann eher den nationalen Gesetzgeber – von 24 Stunden zu komplexen Gesetzgebungsvorhaben. Das ist natürlich völlig unnötig und das ist auch durch nichts so richtig zu rechtfertigen. Also das muss einfach nicht sein. Und da kann man wie gesagt immer nur aktiv drauf hinweisen. Und wenn man meint, dass es ein richtiges und wichtiges Thema ist, besteht ja auch die Möglichkeit, im Nachhinein zu prüfen: Wie sieht die Fassung aus, die veröffentlicht worden ist? Und gibt es vielleicht eine Divergenz zwischen dem, was kommuniziert worden ist, und dem, was veröffentlicht worden ist? Und dann hat man natürlich auch einen Ansatzpunkt, der sich lohnen würde, auch journalistisch aufzugreifen.
Moderator [00:42:37] Herr Kettemann noch dazu.
Matthias Kettemann [00:42:38] Was noch zu ergänzen ist, ist, dass vor allem die Taktung der der Digitalgesetzgebung aktuell herausfordernd ist. Ich will von mir behaupten, dass ich mich einigermaßen auskenne und selbst ich habe die größten Schwierigkeiten alleine das Primärmaterial durchzulesen und zu hinterfragen und dann die Kommentare, die man lesen sollte, dazu zu lesen und die Studien der vielen verschiedenen NGOs. Das Problem ist, dass es keine einfache Lösung gibt, jenseits vorzuschlagen, Rechtsakte zu ähnlichen Themen mit etwas mehr Abstand zueinander zu verabschieden. Aber das ist natürlich schwierig, das als Policy Forderung aufzustellen. Ich warne nur, dass wir in den Bereichen aktuell sehr viel Entwicklung haben und durchaus darauf fokussieren müssen, dass nicht versehentlich Regeln entstehen, die die Expert*innen nicht ausreichend durchleuchtet haben, weil die Taktung der neuen Regeln aktuell sehr, sehr hoch ist.
Moderator [00:43:41] Jetzt haben wir hier noch zwei Fragen. Die würde ich noch versuchen, schnell durchzukriegen. Ich glaube, die gehen auch vor allem an Sie, Herr Keber, weil Sie das eben auch angesprochen hatten. Da der Koalitionsvertrag ja ein juristisches Nullum ist, gäbe es überhaupt die Möglichkeit, das Recht auf Ende-zu-Ende-Verschlüsselung in Deutschland rechtlich derartig zu verankern, dass es gegenüber einer EU-Verordnung rechtlich Bestand hat? Schließlich steht das EU-Recht ja über nationalem Recht.
Tobias Keber [00:44:03] Ja, und deswegen müssen Sie einfach nur überlegen, ob das Recht, Ende-zu-Ende-verschlüsselt zu kommunizieren, als Teil des – national würden wir Fernmeldegeheimnis sagen – in den europäischen Grundrechten verankert werden kann. Und es gibt auch europäische Grundrechte, die Privatheit und private Kommunikation adressieren, natürlich. Die Verordnung ist auch in eine Normhierarchie eingebunden und die Verordnung ist Sekundärrecht, steht also unterhalb des Primärrechts und Primärrecht sind eben auch die Grundrechte der EU Charta. Und es gibt auch die EMRK, die auch noch mal Privatheit schützt. Auch da ist Deutschland Mitgliedsstaat. Und dann muss man gucken, ob dieses Recht möglicherweise ein Grundrecht und ein Menschenrecht ist. Und dann würde ja die Verordnung gegen dieses Primärrecht verstoßen.
Moderator [00:44:58] Und dann noch die letzte Frage an Sie, weil wir eben auch zu der Verhältnismäßigkeit gesprochen hatten: An welchem Punkt des Verfahrens spielt diese Verhältnismäßigkeitsprüfung eine Rolle? Und wer entscheidet dann, ob die Chatkontrolle verhältnismäßig ist? Und wenn der oder diejenige zu dem Schluss gekommen ist, dass das nicht der Fall ist, was würde dann passieren?
Tobias Keber [00:45:18] In einer idealen Welt ist auch der Gesetzgeber grundrechtsverpflichtet. Und in einer idealen Welt wäre ein Vorschlag, der grundrechtswidrig ist, gar nicht möglich, weil der Gesetzgeber und auch der, der initial dafür verantwortlich ist – in dem Fall die Kommission als Exekutive – grundrechtsverpflichtet ist und der dürfte ja eigentlich gar nichts grundrechtswidriges vorschlagen. Macht er aber eventuell doch und deswegen ist es dann der Job der Gerichte, das entsprechend wieder zu kippen. Das würde dann ganz ähnlich laufen, wie das bei der Urheberrechtsreform auch gelaufen ist, bei der Polen eben gesagt hat: Wir glauben nicht, dass das grundrechtskonform ist und dann der EuGH gesagt hat, ja, es bestehen zumindest keine grundsätzlichen Bedenken.
Moderator [00:46:05] Gut, dann neigen wir uns jetzt auch schon stark dem Ende zu. Deswegen würde ich zur Abschlussfrage kommen und das ist an Sie alle die gleiche. Ich würde anfangen mit Ihnen, Herr Gostomzyk. Und zwar, die Frage ist: Wie beurteilen Sie jetzt die EU-Digitalgesetzgebung der letzten Jahre? Geht es Ihrer Meinung nach in eine gute Richtung oder gibt es noch viel Verbesserungsbedarf? Und was halten Sie für den wichtigsten Aspekt, den Journalistinnen und Journalisten aus dem Press Briefing heute mitnehmen sollten?
Tobias Gostomzyk [00:46:30] Also, das ist eine sehr globale Frage. Ich würde sagen, es ist auf jeden Fall vieles auf den Weg gebracht worden. Ist es auch gut, dass vieles auf den Weg gebracht worden ist, weil damit international Standards gesetzt werden. Das ist ein Entwurf, an dem jetzt aber in vielen Bereichen an der Ausgestaltung weitergearbeitet werden muss. Wo geguckt werden muss, wo Kollisionen auftreten, wo auch Verbesserungen möglicherweise angemahnt werden müssen. Also man hat jetzt einen Rohbau [...]. Und der Rohbau, den würde ich auch grundsätzlich als gut bezeichnen. Jedenfalls in Bezug auf den DSA. Und in Bezug auf den DMA auch. Und jetzt geht es um die vielen Ausgestaltungen, die dann notwendig sind und die sich bekanntermaßen auch über Jahre hinziehen können. Was die Berichterstattung betrifft, würde ich gerne mit einem Wunsch enden. Und der Wunsch wäre an alle anwesenden Journalist*innen nicht locker zu lassen, möglichst viel weiter zu berichten über diese Themen, das nicht nur aktualitätsbezogen zu tun, sondern sich immer wieder auch mal einzelne grundlegende Fragestellungen – wie Uploadfilter oder Ausgestaltung von Algorithmen oder Risikobewertungssystemen, so abstrakt sie auch noch sein mögen – herauszugreifen und vielleicht anschauliche Aufhänger zu finden, um dann doch nachhaltig darüber zu berichten.
Moderator [00:48:03] Ich habe den Verdacht, wahrscheinlich haben wir genau die Leute, die das machen, auch jetzt als Teilnehmer hier drin. Und die, die es nicht machen, gucken nicht zu. Aber trotzdem ein sinnvoller Wunsch, würde ich denken. Dann die gleiche Frage noch mal an Sie, Herr Kettemann, wie beurteilen Sie die EU-Digitalgesetzgebung? Geht die in eine gute Richtung? Gibt es Verbesserungsbedarf? Und was halten Sie ansonsten für den wichtigsten Aspekt, den wir heute besprochen haben?
Matthias Kettemann [00:48:26] Sie ist wichtig, sie ist richtig. Sie kommen fünf Jahre zu spät oder zehn Jahre zu spät, je nach Fachgebiet. Und da die USA, China oder Russland aktuell keine ernstzunehmenden Regulierungsvorschläge machen, wird das einen Standard setzen, der weltweit gesehen und gehört wird und Vorbildwirkung haben wird in vielen Bereichen. Das ist gut und das ist sinnvoll. Ich glaube, der der größte Mehrwert, den wir aktuell sehen in diesen Gesetzen ist, dass endlich anerkannt ist, dass neben den Regeln auch die Technik eine Rolle spielt, die Algorithmen eine Rolle spielen. Und dass sowohl im DSA als auch im DMA frontal sowohl Regeln der Plattformen, die internen Regeln, als auch deren Aufmerksamkeitstechniken, deren Machttechniken, kontrolliert werden. Und dahin zu kommen war schon ein großer wichtiger Schritt.
Moderator [00:49:18] Vielen Dank. Und Herr Keber, dann wird es Sie nicht überraschen, dass Sie genau die gleiche Frage noch zum Abschluss bekommen.
Tobias Keber [00:49:24] Ich sehe es auch im Grundsatz genauso. Die Richtung stimmt. Man muss diese Herausforderung europäisch angehen. Man hat beim DSA und beim DMA vielleicht auch schon ein bisschen gelernt, unter anderem auch aus der Datenschutz-Grundverordnung. Da hat man neue organisatorische Mechanismen, also Abstimmungsprozesse sind besser beim DSA mit Digital Services Coordinators. Dieses "one size fits all" – also ein großes Unternehmen muss sich genauso an die Vorgaben halten wie ein ganz kleines – das hatten wir in der Datenschutz-Grundverordnung mehr oder weniger. Da hat man jetzt gesagt: Das machen wir viel differenzierter. Wir gucken, was können die Kleinen stemmen? Die ganz Großen haben viel mehr Verantwortlichkeiten, also viel gestufter das Konzept. Das ist alles gut, alles prima. Man muss der Gefahr begegnen, dass es zu so einer – ich habe das mal Hypertrophie des europäischen Internetrechts genannt – dass es dazu [...] kommt. Wir haben sehr, sehr viele Mechanismen, man muss gucken: Bleiben die auch insgesamt kohärent? Gibt es da nicht systematische Brüche zum Teil, Widersprüche? Da muss man jetzt sehr genau hingucken. Aber die Richtung stimmt. Und ja, an die Journalistinnen und Journalisten: Wenn Experten gefragt werden, wenn es so komplexe Themen sind wie DSA und DMA, geben Sie ihnen statt einer Minute vielleicht drei Minuten, um Sachen zu erklären.
Moderator [00:50:46] Das ist doch auch schön. Ja, dann ist die Zeit hier schon wieder vorbei. Und erst mal vielen Dank an die Journalistinnen und Journalisten. Vielen Dank an meine Kolleginnen und Kollegen, die mich hier unterstützt haben und vielen Dank natürlich vor allem an Sie drei, Herr Gostomzyk, Herr Keber, Herr Kettemann. Die Aufzeichnung von dem Meeting heute stellen wir so schnell wie möglich auf unserer Homepage online heute. Voraussichtlich morgen Mittag wird es da dann auch das Transkript geben. Und falls Sie eine Audioaufzeichnung, die Videodatei oder heute schon das maschinell erstellte Transkript brauchen, dann schreiben Sie uns gerne an redaktion@sciencemediacenter.de. Ja, dann vielen Dank für Ihre Zeit. Ich wünsche Ihnen noch einen schönen Tag und auf Wiedersehen.

