Moderatorin[00:00:00] Hallo und herzlich willkommen hier zum Press Briefing des Science Media Center, heute zum Thema: „Regulierung sozialer Medien: psychologische, rechtliche und technische Aspekte“. Mein Name ist Charlotte Walther. Ich bin Redakteurin für Medizin und Lebenswissenschaften hier im SMC und ich darf Sie heute die nächsten 50 Minuten durchs Press Briefing führen. Warum wir heute über das Thema soziale Medien und dessen Regulierung sprechen, ist, weil sowohl international als auch national die Forderung immer lauter werden. Vergangenen Sonntag erschien ein Positionspapier der SPD-Bundestagsfraktion, in dem gefordert wird, dass soziale Medien erst ab 14 Jahren sein sollen und außerdem wird eine Jugendversion für 14- bis 16-Jährige gefordert. Und morgen und übermorgen tagt dann auch schon der Bundespartaitag der CDU. Und dort wird es unter anderem einen Antrag des Landesverbandes Schleswig-Holstein gehen, in dem es ein Mindestalter von 16 Jahren geht und auch noch andere Maßnahmen wie eine stärkere Medienkompetenzbildung und auch Verbote an Schulen. Neben der Frage, ob dieses Verbot oder auch andere Maßnahmen der richtige Weg sind und auch der ausreichende Weg, stellt sich die Frage, wie die rechtliche Regulierung aussehen kann, damit es auch wirklich für die Unternehmen bindend ist. Und zusätzlich noch die Frage, welches Verifikationssystem das Richtige ist. Welches ist sicher für unsere Daten, aber auch effektiv in der Erkennung?
Moderatorin[00:01:25] Mit mir heute hier sind heute drei Forschende, die diese Fragen beantworten sollen und die möchte ich Ihnen jetzt gerne vorstellen. Ich begrüße Dr. Stephan Dreyer. Er ist Senior Researcher für Medienrecht und Media Governance am Leibniz Institut für Medienforschung, das Hans-Bredow-Institut in Hamburg und ist hier als Experte für Medienrecht vertreten und kann Fragen zu dem rechtlichen Regulierungsspielraum beantworten. Dann begrüße ich Prof. Dr. Anja Lehmann. Sie hält den Chair for Cyber Security – Identity Management inne am Hasso-Plattner-Institut, Universität Potsdam, und arbeitet aber auch nebentätig am Projekt der EUDI-Wallet, also der European Digital Identity, die Lösung, die die EU für die Verifikationssysteme vorschlägt und hat deswegen auch tiefe Einblicke in dessen Funktionsweise. Sie ist hier, um Fragen zu IT-Sicherheit zu beantworten und auch, wie effektiv diverse Verifikationsmodelle tatsächlich sind. Und als Drittes darf ich Prof. Dr. Christian Montag begrüßen. Er ist Professor für Kognition und Neurowissenschaften und stellvertretender Direktor des Instituts für Kollaborative Innovation an der Universität Macao, China. Das ist eine Sonderverwaltungszone an der Südküste des chinesischen Festlandes. Er ist hier oder er forscht vor allen den zu den Auswirkungen sozialer Medien auf die psychische Gesundheit und auch auf kognitive Funktionen und kennt sich auch zu den Themen Sucht und Aufmerksamkeit aus. Er war mehrere Jahre unentgeltlich Teil eines Gesprächskreises von Meta und dieser Gesprächskreis war dafür da, um eben die Kommunikation zwischen dem Plattformunternehmen und Forschenden zu ermöglichen. Schön, dass Sie drei heute da sind. Ich freue mich wirklich sehr.
Moderatorin[00:03:08] Liebe Journalistinnen und Journalisten, nachdem ich gleich die Eingangsfragen gestellt habe, geht es in die offene Fragerunde und damit auch an Ihre Fragen. Bitte nutzen Sie dafür das Frage-und-Antwort-Tool. Ich werde die Fragen dann aufgreifen und an das Panel moderieren und Sie können auch mit der Daumen hoch Funktion uns zu erkennen geben, welche Fragen Sie denn besonders spannend und relevant finden. Dann versuche ich, die zu priorisieren. Das Press Briefing wird aufgezeichnet und ist ein paar Stunden nach Ende auf der Website verfügbar.
Moderatorin[00:03:37] Dann kommen wir jetzt ans Inhaltliche und zu den Eingangsfragen. Ich starte mit Ihnen, Professor Montag. Sie waren Teil der Arbeitsgruppe der Leopoldina die vergangenes Jahr in einem Positionspapier sich für eine strengere Regulierung ausgesprochen hat von den sozialen Medien und das Ganze vor dem Hintergrund des Vorsorgeprinzips. Also, dass man noch keine ganz sichere wissenschaftliche Evidenz zu den Auswirkungen hat, aber man sagt, die Dringlichkeit ist so groß und die Hinweise so stark, dass es Maßnahmen rechtfertigt. Was wissen wir denn nun eigentlich über den Zusammenhang zwischen der Nutzung sozialer Medien und der psychischen Gesundheit von Kindern und Jugendlichen und wo sind unsere größten Lücken?
Christian Montag[00:04:16] Vielen Dank für die Frage. Ich freue mich sehr, dass ich hier sein darf und versuche kurz, doch die komplexe Datenlage darzustellen, die uns zu dieser Entscheidung oder dieser Empfehlung geführt hat. Wenn wir über soziale Mediennutzung im Kinder-und Jugendaltern sprechen, dann haben wir nicht nur ein Thema, was wir berücksichtigen müssen, um eben zu Empfehlungen zu kommen. Sondern wir haben eigentlich einen Strauß an unterschiedlichen Themen, die durchaus auch miteinander verbandelt sind, die hier zu berücksichtigen sind. Und ich werde mal ein paar Themen kurz anreißen, die hier eine Rolle spielen. Zum einen kann man erstmal sagen, ohne diese Suchtdebatte loszutreten, die nach wie vor durchaus kontrovers geführt wird, haben wir natürlich eine Industrie, die mit einem Datengeschäftsmodell arbeitet und darauf abzielt, Onlinezeiten zu verlängern und das Engagement mit den Plattformen zu erhöhen. Und das per se könnte man natürlich schon mal als Problem sehen für Heranwachsende, denn die haben wichtige entwicklungspsychologische Aufgaben zu erledigen, die natürlich altersabhängig durchaus unterschiedlich sind. Bei den Jüngsten sind es eher körperlich betonte Spieleinheiten draußen. Das geht dann bis zum Thema der Identitätsfindung im Pubertätsalter. Man kann hier argumentieren, dass ein „zu viel“ auf dem Plattform, wenn die Industrie eigentlich jede Minute herauspressen will, ein „zu wenig“ an Zeit eben für diese Entwicklungsaufgaben übrig lässt. Und das ist das, was in der Literatur als Displacement-Hypothese diskutiert wird. Darüber hinaus haben wir ein paar vielleicht noch konkretere Gründe, die uns zu dieser Empfehlung haben kommen lassen: Wir wissen, dass die sozialen Medien leider in relativ großem Umfang auch nicht altersgerechte Inhalte an die jungen Nutzenden weitergeben. Und ich glaube, als Erwachsene sind wir schon selber häufig über Inhalte auf den sozialen Medien gestolpert, die uns auch verstören. Und dann kann man sich durchaus vorstellen, was das dann eben noch mit jüngeren Menschen macht. Ein weiterer Forschungsstrang, den man hier berücksichtigen muss, geht in die Richtung Körper und Zufriedenheit und Essstörung. Wir haben die Situation, dass junge Menschen, natürlich auch wir Erwachsener, aber für junge Menschen gilt das noch mal besonders, von der Wirkweise in großem Umfang mit unrealistischen Körperidealen und Schönheitsidealen auch durch die Filter konfrontiert werden. Das arbeitet in den Köpfen und es gibt sehr, sehr viel Literatur, die zeigt, dass es Zusammenhänge geben kann zwischen einer exzessiven Social Mediennutzung und Körperunzufriedenheit und sogar Essstörungen.
Christian Montag[00:06:48] Ich bin immer ein bisschen vorsichtig damit zu sagen, die soziale Mediennutzung alleine führt zu einer Depression oder zu einer Essstörung. So einfach ist es nicht. Bei Psychopathologien handelt es sich komplexe Störungsbilder, die durch viele Faktoren beeinflusst werden. Und ich möchte auch darauf hinweisen, dass wir häufig querschnittliche Daten haben, die nicht immer klar den Kausalschluss zulassen. Aber wir haben natürlich, genau wie Sie am Anfang auch gesagt haben, durchaus einige Daten, die dafür sprechen, dass diese Wirkrichtungen durchaus möglich sind. Dann weiterhin ist auch ein Thema, was man nicht vergessen darf, dass eben Kindheit und Jugendalter zunehmend mehr in einem algorithmisierten Raum stattfindet. Und das bedeutet dann auch, dass eben zum Beispiel Themen wie Cyberbullying, also dass man der Schule bloßgestellt wird, was früher auf dem Schulhof geblieben ist, nun eine sehr, sehr große Skalierbarkeit erfährt. Und ich glaube, da sieht man schon: Wir haben einen großen Strauß an Themen, die es zu berücksichtigen gilt, wenn wir das, was der DSA ja auch empfiehlt – nämlich die Europäische Kommission, den Gesetzestexten – nämlich den Schutz Minderjähriger auf den Plattformen großzuschreiben.
Moderatorin[00:08:00] Vielen Dank. Sie meinten schon, wir haben fast nur querschnittliche Daten. Könnte man sagen, dass das auch die wichtigsten Lücken dann sind in der Forschung?
Christian Montag[00:08:08] Ja, das ist nicht ganz richtig. Wir haben nicht nur querschnittliche Daten. Wir haben in den letzten Jahren durchaus auch vermehrt längsschnittliche Daten im Feld. Das muss man sagen. Trotzdem ist es richtig, dass das nach wie vor eine große Lücke ist. Und darüber hinaus ist eine der größten Lücken tatsächlich die neurowissenschaftliche Forschung zu dem Thema. Wir haben eine sehr medizinisch getriebene Sprache im Feld. Wir sprechen hier schnell über Sucht. Wir sprechen über „Dopamin-Trigger“, wenn wir über das Plattformdesign sprechen. Tatsächlich sind aber Studien, die sich mit bildgebenden Verfahren des Gehirns beschäftigen, im Kontext der Nutzung von sozialen Medien nach wie vor im Vergleich deutlich Mangelware. Und das ist vielleicht auf der einen Seite verblüffend, weil es doch so klar scheint, dass zum Beispiel Dopamin möglicherweise eine Rolle spielt. Aber es ist überhaupt nicht trivial, diese Art von Studien gerade auch im Längsschnitt durchzuführen. Und ich würde sagen, das ist eine der ganz großen Lücken, die wir brauchen. Übrigens auch, um dann final vielleicht irgendwann zu einer Diagnose „Social-Media-Sucht“ zu kommen, die momentan nicht anerkannt ist. Wir haben von der Weltgesundheitsbehörde lediglich zwei Diagnosen, nämlich das pathologische Glücksspiel und die Computerspielabhängigkeit, die beide im Online-Bereich stattfinden können, die zum Thema der Internet-Süchte gehören. Für die die Übernutzung von sozialen Medien ist das momentan noch nicht der Fall, obwohl diskutiert wird, ob man das Rahmenwerk für die Computerspielabhängigkeit nutzen könnte, um das in diesen Bereich zu übertragen. Aber das ist momentan Bestandteil intensiver Forschungsbestrebungen rund den Globus.
Moderatorin[00:09:47] Noch eine ganz kurze Rückfrage zu diesen Dopamin-manipulierenden Funktionen, wie es ja oft heißt. Es laufen ja gerade verschiedene Klagen, sowohl von der Europäischen Kommission als auch in den USA, vor allem gegen TikTok, weil eben gesagt wird, das, was Sie da machen, ist suchtsteigernd, die Features. Was lässt sich da aus Forschungsperspektive sagen? Sagen Sie, nein, weil wir das neurowissenschaftlich nicht sehen, ist das nicht so oder gibt es da doch Hinweise und damit auch eine Chance auf einen Gewinn der Klage?
Christian Montag[00:10:14] Neurowissenschaftlich, würde ich sagen, ist ein Befund relativ gut erhärtet: Es gibt Studien, die sich gerade mit Jugendlichen und der Wirkweise der Likes auf das Gehirn beschäftigt haben. Und wenn man beispielsweise für einen eigenen Beitrag viele Likes, im Vergleich zu wenig Likes, bekommt, triggert das relativ deutlich das Belohnungssystem des Gehirns. Unter anderem das ventrales Striatum, allerdings auch andere Hirnareale, was dann möglicherweise erklärt, warum es zu einer Habit-Formierung [Entwicklung einer Gewohnheit; Anm. d. Red.] kommt. Richtig ist aber, dass wir folgendes Problem haben: Die APIs sind eigentlich die Schnittstellen zu den Plattformen und die sind seit dem Cambridge-Analytica-Datenskandal zum Großteil geschlossen. Und wir haben Probleme eben tatsächlich auf den Plattformen selber Studien zu machen. Selbst wenn wir jetzt einen Datenzugang bekämen, können wir natürlich nicht wie die Industrie auf dem Plattformen A/B testen machen. Also gucken, wie ein einzelnes Design-Element – also stellen wir uns die Plattform ohne Likes vor und mit Likes – das Verhalten verändert. Das Wissen ist meines Erachtens natürlich in der Industrie vorhanden und sollte meines Erachtens auch dringend geteilt werden, damit wir überhaupt zu einer guten Einschätzung kommen können vor dem Hintergrund auch empirischer Daten, wie denn einzelne Design-Elemente miteinander kombiniert das Verhalten der Nutzenden beeinflussen. Das ist überhaupt nicht trivial und scheint mir aber ein wichtiger Schlüssel zu sein. Auch um dahingehend nachzudenken, welche Kombination von Design-Elementen denn möglicherweise ein gesünderes Verhalten ermöglichen auf den Plattformen. Und darüber hinaus, glaube ich, müssen wir auch dringend über alternative Geschäftsmodelle nachdenken, die eben nicht allein auf die Online-Zeiten und das Engagement mit den Plattformen abzielen.
Moderatorin[00:11:53] Darüber können wir später gerne noch weiter sprechen. Ich komme jetzt erst mal zu Ihnen, Herr Dreyer, und Ihrer Eingangsfrage: Wie erfolgt denn eigentlich die rechtliche Umsetzung? In einem Artikel, der vor kurzem bei Netzpolitik.org erschienen ist, haben Sie gesagt: „Was mich daran – und mit ,daran', denke ich, dass Sie die Debatte zu der Regulierung der sozialen Medien meinen – überrascht, ist, wie entkoppelt der politische Diskurs von Rechtslage und Forschungslage stattfindet.“ Könnten Sie noch mal genauer auf diese Entkoppelung eingehen? Inwiefern findet der politische Diskurs an der Forschungslage vorbei statt?
Stephan Dreyer[00:12:24] Also erst mal vielen Dank für die Einladung. Worauf ich damit abziele, ist, dass wir zurzeit eine Menge von Politiker:innen haben und Staaten, die ein Verbot fordern und es dabei belassen. Also es findet keine Diskussion statt, was die Gründe für diese Verbotsforderung sind. Die sind aus meiner Sicht eher sehr einseitig, nicht so differenziert, wie wir es gerade von Herrn Montag gehört haben. Und zum anderen wird nicht über die Umsetzung weiter gesprochen und die Frage, ob diese Umsetzung verhältnismäßig im rechtlichen Sinne ist. Und gerade wenn wir Gesetze fordern, müssen wir eben daran denken, dass wir im Rechtsstaat leben und die Gesetze dann verhältnismäßig sein müssen oder umsetzbar oder anwendbar. Und das meinte ich damit, die Entkoppelung von der Rechtslage, die wir vorfinden, und die sehr differenzierte Forschungslage, die wir sehen.
Moderatorin[00:13:17] Und in Bezug auf die einzelnen EU-Länder, man hört jetzt aus ganz vielen verschiedenen Ländern: Frankreich fordert eine Altersgrenze, das Oberhaus in Großbritannien fordert eine. Okay, dies gehört jetzt gar nicht zur EU, das war jetzt falsch, aber viele EU-Länder, auch Spanien oder jetzt vielleicht auch Deutschland, fordern ja eine Altersgrenze und an sich sind wir dem DSA, also dem europäischen Recht, was soziale Medien angeht, untergeordnet. Können Sie da noch mal sagen, wie denn überhaupt der Regulierungsspielraum einzelner Länder ist?
Stephan Dreyer[00:13:48] Also das ist praktisch die Portführung der politischen Entkoppelung. Wenn jemand sich in die Kamera stellt und sagt, die Selbstregulierung geht nicht mehr weiter, dann ich muss ich daran erinnern, dass wir seit Jahren keine Selbstregulierung mehr im Bereich der Plattform haben. Wir haben also mit dem DSA eine europäische Verordnung, die Plattform-Governance einhegt. Die sagt genau, was diese Plattformen machen müssen und was sie nicht machen dürfen. Und dazu gehört auch der Kinder-und Jugendschutz. Und für europäische Verordnungen gilt, dass wenn sie vollharmonisierend sind und keine Öffnungsklauseln enthalten für nationale Gesetze, dass dann die einzelnen Mitgliedstaaten keine nationalen Vorgaben, die sich an die gleichen Adressaten richten, mit dem gleichen Schutzzweck, erlassen können. Das heißt, genau genommen, sie können sie erlassen, aber sie sind dann nicht anwendbar, weil diese Vorschriften nicht mit höherrangigen Recht, in diesem Fall also dem DSA, vereinbar sind. Und das wissen eigentlich alle Europapolitiker:innen auch und deswegen wundere ich mich immer noch, dass praktisch in jeder Verbotsforderung kommt: „Wir müssen den Plattformanbietern jetzt bestimmte Altersgrenzen auferlegen.“ Wenn wir das wollen, wenn das der politische Wunsch ist, dann muss man das auf EU-Ebene machen. Auf nationaler Ebene müssten wir uns auf gesetzliche Vorgaben zurückfallen lassen, die nicht die Plattformanbieter verpflichten. Das wäre dann wiederum möglich. Dann käme man nicht in den Widerspruch zum DSA, aber die Alternativen, die einem da so dann durch den Kopf gehen, finde ich jetzt nicht besonders wünschenswert. Also wenn wir jetzt zum Beispiel Eltern verpflichten, das einzuführen oder wenn wir die Kinder selbst kriminalisieren, dass sie Ordnungswidrigkeiten begehen, wenn sie zu jung auf solche Plattformen sind. Also das sind alles Sachen, die aus meiner Sicht nicht in die Diskussion gehören. Deswegen brauchen wir aus meiner Sicht endlich den nächsten Schritt, nämlich die Frage, wenn das der politische Wunsch ist und es stellt sich aus meiner Sicht so dar europaweit, dann ist die Frage: Wie wollen wir eine gesetzliche Regelung auf EU-Ebene dafür einführen?
Moderatorin[00:15:49] Und wenn die dann auf EU-Ebene eingeführt wird – jetzt komme ich zu meiner Eingangsfrage an Frau Lehmann –, dann ist natürlich auch die Frage: Wie soll das Ganze überprüft werden? Frau Lehmann: Was sind denn aktuell die technischen Lösungen, die es zu Altersverifikationen gibt und was sind dort die Vor-und Nachteile?
Anja Lehmann[00:16:07] Danke für die Frage. Es gibt also Technologien erstmal, die gar keine richtige Altersverifikation sind, sondern eine Altersschätzung oder Age Assessment, die aber schon eingesetzt werden, wo man im Endeffekt das Alter aufgrund von persönlichen Merkmalen schätzt. Man macht zum Beispiel eine Videoaufnahme oder eine Stimmaufnahme von sich und dann wird KI eingesetzt, um zu schätzen, ob man alt genug aussieht oder alt genug klingt. Man kann auch so ein Assessment basierend auf Cookie- oder Tracking-Daten machen. Es werden ja leider bereits viel zu viele Daten eigentlich von allen Nutzer:innen im Netz gesammelt. Man weiß, wonach sie gesucht haben, wofür sie sich interessiert haben. Und das kann man jetzt auch nutzen, um Alter abzuleiten. Hat man sich zum Beispiel mal länger für eine Steuererklärung oder für eine Autoversicherung interessiert, ist man vermutlich über 16 oder hat sehr bizarre Hobbys. Das ist dann eine Möglichkeit, zwar relativ niederschwellig herauszufinden, wie alt man ist, bringt aber auch recht wenig Sicherheit, lässt sich immer leichter fälschen und ist natürlich aus Datenschutzsicht auch nicht wirklich toll, weil es im Endeffekt die Datenschutzprobleme, die wir gerade haben, weiter verstärkt und noch mal befeuert. Einfach zu sagen, wir sammeln alles, um da Dinge abzuleiten, die man auch anders preisgeben könnte. Bei Altersverifikationen sagt man dann, wir können auch einfach auf Nachweisen aufsetzen, wo schon drinsteht, dass man über einen bestimmten Alter ist. Wir haben ja alle einen Personalausweis oder einen Führerschein, wo unser Geburtsdatum und Name drinsteht. Und einfach den zu nutzen, um eben nachzuweisen, dass man über 16 oder 18 Jahre alt ist. Da wird dann aber meistens auf so eine analoge Brücke gesetzt, dass man sagt, okay, wir machen jetzt ein Video-Ident-Verfahren oder man scannt den Ausweis ein. Also man setzt sich dann vor die Kamera und fängt dann an, mit dem Ausweis herumzuwackeln. Das wird dann sogar auch noch an Drittanbieter meistens ausgelagert, die das anbieten als ein Dienst und dann einfach nur den Service weitervermitteln und sagen: „Ja, wir haben hier so einen Ausweis gesehen und das wird schon mit über 16, über 18 Jahren passen.“ Das ist dann auch wieder nicht sonderlich sicher, weil auch diese Dinge besser gefälscht werden können. Und auch aus Datenschutzsicht ist das natürlich wieder nicht gut, weil wir viel zu viele Informationen preisgeben, einfach nur um nachzuweisen, dass man über einem bestimmten Alter ist.
Anja Lehmann[00:18:09] Und da setzt genau der Ansatz ein, der jetzt gerade sehr viel diskutiert wird: Eben über digitale Zertifikate und digitale Altersnachweise, wie mit der EUDI-Wallet, nur das minimale Datum, dass man über eine bestimmte Altersgrenze ist, nachzuweisen. Das heißt, auch da hat man einen digitalen Ausweis, in dem bestimmte Informationen – Name, potenziell Alter und so weiter – drinstehen, die kryptografisch über digitale Signaturen geschützt sind. Aber hier passiert auch das Vorzeigen dann digital. Es wird nicht irgendwas abfotografiert, sondern man macht ein kryptografisches, sicheres Protokoll im Hintergrund, mit dem man nachweist, dass man tatsächlich so einen Ausweis besitzt. Und das ist dann nicht nur sicherer als die aktuellen Lösungen, sondern eben auch datensparsamer. Weil in dem Moment, wo wirklich nur ein Altersnachweis gefordert wird, da muss ich nicht meinen Namen vorzeigen oder meine Adresse, sondern wirklich nur zeigen, ich besitze einen Ausweis und in diesem Ausweis steht drin, dass ich über einer bestimmten Grenze bin.
Moderatorin[00:19:01] Und gibt es auch bestimmte Risiken, die mit der EUDI-Wallet im Zusammenhang stehen? Das sind gerade die Vorteile vor allem gewesen.
Anja Lehmann[00:19:10] Genau. Das Verfahren, was aktuell mit der EUDI-Wallet umgesetzt wird, ist sehr sicher und sehr datensparsam. Es wird auch darauf Wert gelegt, dass wenn man sein Alter nachweist, man darüber nicht verknüpft werden kann. Das heißt, wenn ich jetzt zu mehreren Diensten gehe und mehrfach mein Alter nachweise, dann können die Dienste nicht herausfinden, ob sich hinter derselben anonymen Person, die dieselbe Person verbirgt oder eine andere. Eine Sache, die aktuell noch nicht erreicht wird, ist, dass wir keine Unverknüpfbarkeit gegenüber der ausstellenden Behörde haben. Das heißt, die ausstellende Behörde, die könnte schon noch herausfinden, wenn sie irgendwann einen anonymen Altersnachweis vorgelegt bekommt, wer sich jetzt tatsächlich dahinter verborgen hat. Das lässt sich aber auch noch vermeiden mit moderner Kryptografie. Da gibt es die sogenannten Zero-Knowledge-Proofs. Da kann man das relativ leicht noch upgraden und sagen: „Okay, wir kriegen das so hin, dass auch die ausstellende Behörde überhaupt nicht mehr herausfinden kann, wer sich hinter so einem anonymen Ausweis verbirgt.“ Man muss aber auch ganz grundsätzlich sagen, um das noch ein bisschen einzuordnen von der Sicherheit, dass man die Sicherheit, die mit den Altersnachweisen garantiert werden kann, nicht überbewerten sollte. Und ganz allgemein hängt es gar nicht von einer konkreten Lösung ab. Denn wenn so eine Altersverifikation nur in bestimmten Ländern verpflichtend ist, kann man auch immer einen VPN einsetzen, um dem Dienst vorzugaukeln, dass man sich in einem Land befindet, wo es gerade keine verpflichtende Altersverifikation gibt und das die entsprechend umgeht. Und dass das eine Sache ist, die anscheinend Nutzer:innen machen, konnte man ja in England sehen, wo die Nachfrage nach solchen VPN-Diensten massiv gestiegen ist. Das heißt, hier muss man einfach das Gesamtsystem ein bisschen auch betrachten und nicht erwarten, dass eine sichere Altersverifikation ein Wundermittel ist, was dann quasi alle Probleme löst.
Moderatorin[00:20:49] Ich würde jetzt erst mal einen Hinweis noch an die Journalistinnen und Journalisten geben: ich habe gesehen, Sie fangen schon langsam damit an, aber nutzen Sie sehr gerne das Frage-und-Antwort-Tool, um auch Ihre Fragen zu stellen. Ich würde jetzt einen kurzen Blick nach Australien werfen wollen und bei Ihnen bleiben, Frau Lehmann. Wie bewerten Sie denn vor dem Hintergrund der Infos, die Sie gerade genannt haben, das Vorgehen von Australien? Also da sind ja die Unternehmen in der Verantwortung das Alter zu überprüfen auf verschiedene Arten und Weisen.
Anja Lehmann[00:21:23] Da werden eigentlich nur die Techniken eingesetzt, die ich am Anfang aufgezählt hatte, eben außer diesen datenschutzfreundlichen Lösungen. Das heißt, hier werden gerade einfach viel zu viele Informationen gesammelt. Da wird, glaube ich, auch schon einfach das Problem gar nicht erst richtig untersucht, sondern da wird einfach gesagt, die Altersverifikation wird es schon richten und man sammelt erst mal viel zu viele Daten. Man nutzt eben genau diese Techniken wie Age-Assessment, das man sich scannt, die Informationen auswertet, dass man Ausweise an irgendwelche Services hochlädt und viel zu viele Informationen preisgibt. Also zumindest von den Technologien, die ich da gesehen habe, hat man sich nicht ausreichend damit beschäftigt, welche Risiken man eben hat, wenn man einfach zu viele Informationen preisgibt, die eigentlich nicht notwendig gewesen wären.
Moderatorin[00:22:06] Herr Montag, dann wollen wir uns noch mal die psychologische Perspektive angucken, auch in Bezug auf Australien: Weiß man denn schon irgendetwas? Inwiefern haben jetzt diese wenigen Wochen und Monaten schon geholfen, irgendwas zu verändern?
Christian Montag[00:22:21] Nein, außer dass Accounts geschlossen worden sind, kann man, glaube ich, relativ wenig momentan sagen. Es ist einfach noch zu frisch. Es ist, glaube ich, im Dezember letzten Jahres in Kraft getreten. Jetzt haben wir gerade mal Februar. Wichtig ist, dass das Ganze evaluiert wird. Das hat mir auch so ein bisschen gefehlt in der Vergangenheit. Es gab ja schon Initiativen, auch Smartphones zu verbannen, in Frankreich zum Beispiel. Dann will man immer wissen, nach ein paar Jahren: „Ja, war das denn jetzt wirkungsvoll?“ Das heißt, das muss natürlich begleitet werden wissenschaftlich. Das ist wichtig.
Christian Montag[00:22:51] Ich glaube, das Problem, das wir so ein bisschen alle haben, wir hören jetzt sehr unterschiedliche Vorstöße. Die SPD sagt irgendwie 14, Australien sagt 16. Lebensjahr und ich glaube – sie hören bei mir schon heraus – grundsätzlich habe ich Bauchschmerzen mit Kindern auf den aktuellen Plattformen aufgrund der Probleme. Jetzt ist es aber sehr schwierig, irgendwann mal eine vernünftige Zahl drauf zu schreiben. Das hat mehrere Gründe. Zum einen aus psychologischer Sichtweise findet natürlich Altersentwicklung/psychologische Entwicklung differenziell statt. Das heißt, Kinder entwickeln sich unterschiedlich schnell. Das ist für Policy-Making natürlich sehr schwer, das verstehe ich. Auf der anderen Seite kenne ich aber keine Studie, die uns jetzt belastbar sagen würde, ab 14 Jahren ist besser als ab 15 oder 16. Das heißt, da muss man natürlich jetzt drüber nachdenken, aufgrund welcher Datenlage man welches Alter vorschlägt. Wir hatten bis jetzt ja sehr häufig diese ominöse Zahl 13. Die geht meiner Kenntnis nach zurück auf den Children's Online Privacy Protection Act in den USA. Da war das World Wide Web ein zartes Pflänzlein und man hat damals gesagt: „Das wäre doch gut, die Privatsphäre von Kindern zu schützen.“ Zustimmendes Nicken von allen Seiten. Ja, wann hört denn die Kindheit auf? Ich glaube, so Pubertät. Ja, nehmen wir 13, oder? Also ich stelle das jetzt mal sehr plakativ dar, aber da sieht man schon, da ist jetzt keine gute Literatur hinter, die uns dabei unterstützen würde. Wir wissen natürlich aus Hirnforschungsstudien und aus der psychologischen Literatur, dass gerade die Jüngeren, jetzt wenn wir über Kinder sprechen – je nach Literatur, vielleicht bis zum zwölften Lebensjahr und bis die Pubertät beginnt –, dass dort andere Entwicklungsaufgaben zu machen sind als später. Also da ist es zum Beispiel wichtig, dass die Kinder tatsächlich, wie wir so häufig auch hören in den Medien, ausreichend Bewegungszeit draußen haben, das soziale Miteinander geübt wird, die Grobmotorik wird dadurch geschult. Man muss sich natürlich schon die Frage stellen, wenn die Industrie vom Datengeschäftsmodell her aggressiv eben immer die Zeit abzieht, ob das überhaupt gesund sein kann. Aber darüber hinaus, muss man natürlich sagen, würden wir ja gerne auch für das Jugendalter irgendwann zu einer Zahl kommen, die gut ist.
Christian Montag[00:25:12] Und ich glaube, hier brauchen wir einen nuancierten Ansatz. Beim Ansatz, den wir jetzt haben in Australien – wenn ich das richtig überschaue – werden ja so Plattformen wie Instagram und Facebook unter den Ban gezogen, aber zum Beispiel ein WhatsApp-Messenger, wenn ich mich recht im Sinne, nicht. Und ich glaube, wir müssen noch ein bisschen detaillierter drauf schauen. Weil wir suggerieren, wenn wir über die sozialen Medien sprechen, dass eine Plattform wie LinkedIn, wie ResearchGate, wo ich als Wissenschaftler drauf bin, als soziales Netzwerk, und TikTok, dass das irgendwie alles dasselbe ist. Ein Stück weit will ich sagen, die arbeiten alle mit einem Datengeschäftsmodell dahinter. Ja, da gibt es ein paar Design-Elemente, die überall da sind, aber offenkundig scheinen sich die Plattformen ja doch auch zu unterscheiden. Und wenn wir uns den hiesigen Jugendschutz anschauen, zum Beispiel aus dem Bereich Filmen oder andere Dinge, da wird ja auch immer das einzelne Produkt sich mal angeschaut. Und ich glaube, das wäre auch hier in dem Zusammenhang wichtig.
Moderatorin[00:26:14] Und da wäre auch eine Evaluation bestimmt wichtig. Eine Frage kam jetzt gerade rein, wie sich denn die Effekte von einer solchen Altersregulierung messen lassen würden? Also wahrscheinlich im Rahmen einer Studie. Welche Indikationen könnten uns helfen, zu verstehen, ob ein Verbot erfolgreich war? Herr Montag, vielleicht direkt dazu.
Christian Montag[00:26:32] Wir würden natürlich ein Bündel an Variablen erfassen müssen, die ich auch eingangs erwähnt hatte. Also die Problemfelder mal aufzeigen. Man würde im Längsschnitt zum Beispiel monitoren, wie sich so was wie Körperzufriedenheit verändert, wie sich suchtähnliche Nutzung verändert, wie sich dann natürlich auch das Wohlbefinden von Personen – das kann man breit erfassen – verändert, man könnte Psychopathologien erfassen. Also das wäre sicherlich nicht eine Variable, die man berücksichtigen muss. Und wenn man Wissenschaft macht, wissen wir eigentlich, wir brauchen auch noch eine Kontrollgruppe. Sonst haben wir nachher vielleicht irgendwelche zeitlichen Trends drin von gewissen Kohorten. Das heißt, eigentlich bräuchten wir einen experimentellen Ansatz. Also wenn wir mal auf Schulniveau so was überlegen würden, dann hätte man eine Klasse, bei der würde ein solcher Ban eingeführt, bei einer anderen Klasse nicht und dann würde man den Vergleich über einen Längsschnitt sich mal anschauen. Aber ich glaube, da sieht man schon, das ist nicht ganz leicht und wir müssten hier wahrscheinlich mit Quasi-Experimenten arbeiten momentan. Wenn manche Länder das einführen, andere nicht, würde man dann mal schauen, ob sich bestimmte Kohorten, die sich natürlich in der Soziodemografie nicht unterscheiden sollten, wie die sich dann in Punkto einiger dieser Variablen, die ich gerade genannt habe, dann im Längsschnitt verändern.
Moderatorin[00:27:55] Noch eine Rückfrage direkt dazu. Oder nicht direkt dazu, aber auf jeden Fall ist es ist wichtig, diese verschiedenen Studien durchzuführen und es ist schwer, das zu erforschen. Jetzt kam noch eine Frage: Vor drei Jahren haben wir schon mal ein Press Briefing veranstaltet und da hieß es noch, die Studienlage ist sehr dünn, man kann das alles gar nicht wissen, entsprechend nicht unbedingt Regulierungen einführen. Hat sich da die Forschung in den vergangenen drei Jahren denn jetzt so stark geändert, dass man eben zu dieser Empfehlung, zumindest unter Vorsorgeprinzip, plädieren würde?
Christian Montag[00:28:28] Ja, ich glaube, man kann nicht sagen, dass wir nichts wissen. Es ist komplex und es kommt ein Stück weit erst mal darauf an, wie wir die Fragen stellen. Wir hatten eine lange Zeit im Feld so eine Screentime-Debatte. Da hat man irgendwie erfasst: Wie viel Stunden bist du online? Dann hat man das korreliert mit Lebenszufriedenheit. Und da sieht man meta-analytisch, das heißt eben, wir reden nicht über eine Studie, sondern wir reden über die statistische Auswertung von vielen Studien zu einem Thema, dass die Zusammenhänge dort fast im Nullbereich sind. Wenn man einfach nur schaut, Lebenszufriedenheit und Dauer der Nutzung sozialer Medien, sieht man kaum Zusammenhänge. Und die Frage ist: Warum ist das so? Da gibt es gut gemachte Arbeiten, zum Beispiel aus Holland, die dann kurz nach der Social-Media-Nutzung erfassen, wie Leute drauf sind. Und dann sieht man, da gibt es eigentlich drei Gruppen: Ein Großteil der Leute sagt, da ändert sich für mich gar nichts. Eine zweite Gruppe sagt, mir geht es schlechter und eine dritte Gruppe sagt, mir geht es besser. Und wenn man die natürlich alle in einen Topf reinschmeißt, dann kann sie sich so was rausmitteln. Das heißt, wir müssten eigentlich wesentlich genauer drauf schauen. Das haben wir auch über die letzten Jahre gelernt. Wir sind ein bisschen weg von dieser Screentime-Debatte, die durchaus – wir haben das eben schon gehört: Kindern mit zu viel Zeit auf sozialen Medien, haben zu wenig Zeit für andere Dinge – zu vereinfacht gestellt ist. Denn es kommt ja auch drauf an, was man dort macht, ob das aktive oder passive Nutzung ist und was die Motivlage ist. Das muss man alles berücksichtigen, um dann individuell auch zu verstehen, ob bestimmte Personen dort eher ein Problem entwickeln oder nicht.
Christian Montag[00:30:05] Darüberhinausgehend sind wir schon in der Lage, wenn man das über die letzten Jahre sieht, dass die Literatur doch durchaus gewaltig angewachsen ist in sehr unterschiedlichen Bereichen. Und dass wir mittlerweile auch zu den unterschiedlichen Themenbereichen – egal ob das Essstörungen und soziale Medien ist, ob das Wohlbefinden und Nutzung ist – es gibt schon eine Menge Übersichtsarbeiten. In Teilen auch Meta-Analysen, die zumindest eben die Zusammenhänge in Teilen – es kommt darauf an, wie die Frage gestellt wird – robust nachweisen. Aber dann beginnt jetzt eben diese nächste Arbeit und da haben wir zu wenig Studien, die dann wirklich den Blick Richtung klare Kausalität lenken würden. Und wenn Sie mich fragen, es wird komplex bleiben. Also ich denke, dass die Wirkrichtungen eben durchaus häufig zwischen Variablen in beide Richtungen denkbar sind, aber es wird nicht so einfach sein, dass man sagen kann, monokausal, wie ich das auch eingangs gesagt habe, führt eben die Nutzung der sozialen Medien zu einer Psychopathologie. Noch mal: Es gibt so viel Forschung der Psychiatrie, die zeigt, dass komplexe Störungsbilder durch viele Faktoren beeinflusst werden.
Moderatorin[00:31:16] Vielen Dank. Dann möchte ich gerne noch mal zwei Fragen an Herrn Dreyer stellen. Es sieht ja so aus, als könnte es jetzt ein Verbot bis zu einem bestimmten Alter geben. Da kam die Rückfrage: Warum denn die Tatsache, dass eigentlich keine nationalen Verbote überhaupt rechtlich bindend sind, warum wird das medial nicht mehr thematisiert und warum werden Politiker damit nicht konfrontiert? Ich weiß nicht, inwiefern Sie dazu was sagen können. Aber dann eine Theorie die dann auch dazukam, war, ob nicht diese nationalen Ankündigungen nicht eher einfach erst mal den Druck auf Brüssel erhöhen sollten?
Stephan Dreyer[00:31:54] Ja, so muss ich das lesen. Also das sind Vorpresch-Versuche sozusagen, um Fakten zu schaffen, auch wenn die Gesetze dann nicht anwendbar sind. Dass man hier zeigt, politisch ist der Wille da, so eine Verbotsregelung einzuführen. So würde ich das auch sehen. Dass die Politiker:innen das nicht wissen, würde ich, glaube ich, eher als Unterstellung abheften. Denn wir haben sowohl die EU-Kommission, die mehrfach über den Sprecher – Herr Regnier ist das dann immer – die Mitgliedstaaten daran erinnert, in wöchentlicher Regelmäßigkeit, dass der DSA gilt und nationale eigene Gesetze da in diesem Themenbereich nicht möglich sind. Und auch der wissenschaftliche Dienst des Bundestages zum Beispiel hat in zwei größeren Stellungnahmen deutlich herausgearbeitet, dass hier dem nationalen Gesetzgeber enge Grenzen gesetzt sind. Also insofern glaube ich, ist das bekannt. Aber es passt nicht so gut in die politische Forderungslandschaft, sozusagen. Deswegen macht man es jetzt erst mal so, erhöht den Druck auf Brüssel und dann werden wir sehen, was auf der Ebene passiert.
Stephan Dreyer[00:33:06] Ich wollte – weil wir das Vorsorgeprinzip jetzt ein, zwei Mal angesprochen haben – kurz darauf hinweisen, dass auch aus juristischer Sicht das relativ klar ist, sozusagen. Dass wenn sich diese Hinweise mehren, dass es jedenfalls Zusammenhänge gibt, statistischer, korrelativer Art, dass das für den Gesetzgeber einen Spielraum eröffnet erst mal, dort zu regulieren. Also insofern ist das nicht verboten darüber nachzudenken, aber wenn der Gesetzgeber sich auf das Vorsorgeprinzip beruft und sagt, ich möchte jetzt eine Verbotsregelung einführen, dann muss die auch ansonsten verhältnismäßig sein. Und das ist das Problem, was ich hier und da dann noch mal nach vorne werfen muss. Die Frage, warum wir jetzt Kindern und Jugendlichen – also ich rede jetzt vor allen Dingen über Kinder, sagen wir mal ab 13 oder 14 Jahren – praktisch die Teilhabe an dieser Plattform verwehren, wenn es andere Mittel gäbe, die die Gefahren mindestens genauso effektiv minimieren können. Und das könnte man aus meiner Sicht immer noch besser schaffen, wenn man die riskanten Plattformgestaltungen so regulatorisch anpackt, dass genau diese problematischen Gestaltungen dann verboten werden. Dann könnte man also altersgerecht gestaltete Angebote rechtlich durchsetzen und die Kinder und Jugendlichen wären dann nicht mehr so gefährdet auf diesen Plattformen. Das heißt, von zu langen Nutzungen, zu personalisierte Feeds, endloses Scrollen, nächtliche Nutzungen und dergleichen. Auch die schönheitsbezogene Nutzung, die angesprochen war, ist über Algorithmen-Design abstellbar. Also warum bestrafen wir jetzt sozusagen die Kinder mit Verboten, wenn es eigentlich die Plattformgestaltung ist, an die wir ran müssten?
Moderatorin[00:34:55] Wäre das denn rechtlich möglich?
Stephan Dreyer[00:34:58] Ja, es wäre nicht nur rechtlich möglich, sondern das ist eigentlich das zentrale Ziel von Artikel 28, DSA, also der Kinderschutzparagraf in dem Digital Services Act, der sagt: „Hohes Maß an Privatsicherheit und Schutz für Kinder und Jugendliche auf Onlineplattformen.“ Und das heißt, wenn man sich das genau durchliest, dass wir altersgerechte Angebote brauchen für alle Altersgruppen sozusagen auf diesen Onlineplattformen.
Moderatorin[00:35:30] Ich habe noch eine weitere Frage, Frau Lehmann, jetzt an Sie. Und es geht wieder um die Verhältnismäßigkeit in einer Art und Weise. Die Frage lautet, die ist ein bisschen länger: In Australien weiß man, dass sehr viel Ausweichverhalten, was die Verifikationssysteme angeht, gezeigt wird, dass man sich mit Dokumente ein älterer Geschwister oder Eltern anmeldet und das scheint nicht zu funktionieren. Und dass zum Beispiel im Gegensatz da zu Griechenland die Kids Wallet zur Pflicht machen möchte. Dass da aber mit schon sehr stark auf private Daten zugegriffen wird und Postings eventuell gescannt werden sollen oder Standorte abgefragt werden. Die Frage ist: Wird hier nicht zu stark in die Persönlichkeitsrechte eingegriffen? Also vielleicht erstmal so die technische Frage: Wird es das?
Anja Lehmann[00:36:18] Ich glaube, mit den meisten, also gerade mit den schlechteren Lösungen, definitiv. Und ich will mich da wirklich ganz stark hier Herrn Dreyer anschließen. Ich glaube, die Verhältnismäßigkeit ist da ganz oft wirklich nicht gegeben. Man könnte sogar sagen, wir belohnen die Plattform für ihr schädliches Verhalten, indem wir ihnen noch mehr Informationen und sehr gute Informationen von den Kindern geben. Wer ist jetzt wirklich ein Kind? In welchem Alter befinden die sich? Anstatt sie dafür in Haftung zu nehmen, mit welchen Techniken und Algorithmen sie eigentlich die gesamte Gesellschaft gefährden. Und ich glaube, das ist, wie gesagt, auch das inhärente Problem. Es wird keine perfekte Sicherheit geben und es wird immer möglich sein, sich mit einem Ausweis von anderen anzumelden oder VPN zu nutzen. Und man sieht ja jetzt schon, dass dann auch immer mehr Forderungen kommen. Es gab dann die Forderung, man könnte doch VPNs verbieten, was ein bisschen hilft, aber so viele andere schreckliche Auswirkungen auf IT-Sicherheit und Datenschutz hat. Also dass man versteht, diese Altersverifikation wird nie perfekte Sicherheit leisten können, aber hat immer noch eine Menge Kollateralschäden. Selbst die beste datenschutzfreundlichste Lösung liefert auch wieder eine Infrastruktur, die später ausgenutzt werden kann, andere Daten abzufragen. Wir fangen jetzt an, eine große Infrastruktur zu bauen – auch für andere Dinge, wo es ja nützlich ist – aber für Altersverifikation, wo wir plötzlich erlauben, Zugang zu Informationen zu regulieren, ob man ein bestimmtes Alter hat oder nicht. Aber wer garantiert, dass man in ein paar Jahren nicht etwas anderes abfragt? Dass man vielleicht nach Geschlecht, nach Herkunft oder doch nach Klarnamen abfragt? Da sehe ich auch gerade noch nicht die Verhältnismäßigkeit und ich würde auch sehr stark dafür plädieren, wirklich das grundlegende Problem anzugehen, nämlich dass wir Algorithmen, dass wir Systeme haben, die nicht nur für Kinder, sondern für die gesamte Gesellschaft gerade sehr schädlich sind und hier viel stärker auf Regulierung setzen, anstatt ein kleines Symptom zu bekämpfen mit einer Technologie, wo auch die Risiken noch nicht wohl untersucht sind.
Moderatorin[00:38:10] Herr Dreyer, hier kam noch mal der Wunsch, ein bisschen konkreter auf den rechtlichen Spielraum, den die nationalen Regierungen haben, einzugehen und auch die Frage, dass die EU-Kommission für den Sommer eine Initiative zur Regulierung beziehungsweise zum Verbot der Social-Media-Nutzung plant. Wie sieht dann diese Regulierung aus europäischer Sicht aus? Und dann vielleicht noch mal konkretisieren: Und was genau können jetzt die Länder? Also bitte noch einmal.
Stephan Dreyer[00:38:37] Die Mitgliedstaaten können Mindestalter-Grenzen so erlassen in einem Gesetz, dass die Online-Plattformanbieter nicht die Adressaten sind. Wir hatten vorhin das Beispiel aus Griechenland gehört. Also wenn der griechische Staat sagt, Eltern müssen das Geburtsdatum ihrer Kinder elektronisch in einer Wallet hinterlegen und je nach Alter können dann diese Endgeräte zum Beispiel auf soziale Medien nicht zugreifen. Das wäre eine rechtliche Regelung, die die Plattformanbieter vollkommen außen vor lässt. Die müssen sich gar nichts kümmern. Die griechischen Kinder kommen nicht mehr rein, sozusagen. Das funktioniert dann auf dem Endgerät mithilfe der Eltern. Solche Regelungen sind möglich, weil sie eben nicht in Widerspruch zu dem DSA stehen, weil sie die Plattformanbieter nicht adressieren. Und das ist der Spielraum, den man hat.
Stephan Dreyer[00:39:26] Die Idee auf EU-Ebene eine Regelung zu erlassen: Also ich sagte ja schon, mein Gefühl ist, dass es da eine politische Mehrheit derzeit gibt. Wir sehen das an den einzelnen Staaten, die jetzt vorpreschen. Wir sehen das an so Erklärungen wie der Resolution des Europaparlaments, die mit einer Mehrheit das gefordert hat. Wir sehen das an Erklärungen wie der Jütland-Deklaration aus dem Oktober war es, glaube ich, wo sämtliche Mitgliedstaaten unterschrieben haben, sie möchten, dass das geprüft wird, ob das geht. Also es scheint so, dass sich eine breite Verlangs an Befürwortern findet. Und dann muss natürlich die EU-Kommission auch irgendwann tätig werden, wenn das der allgemeine Wille ist. Und ich glaube, dass die derzeit auf der Suche danach sind. Es mehren sich die Hinweise, dass der Digital Fairness – eine neue Verordnung, die in Planung ist –, sich möglicherweise anbietet, so aus Verbraucherschutzsicht dort ein Instrument zu implementieren, was ein Mindestalter für bestimmte Angebote enthält. Wie das genau aussehen wird, können wir noch nicht sagen. Es kann sein, dass sehr schnell etwas passiert. Während wir hier sprechen, finden Trilog-Verhandlungen für die CSA-Verordnung [Child Sexual Abuse Regulation: geplante EU-Verordnung, die Anbietende von Messenger- und Hostingdiensten verpflichtet, Materialien des sexuellen Online-Kindesmissbrauchs zu finden; Anm. d. Red.] statt. Da geht es um Darstellungen von Kindesmissbrauch. Da wird verhandelt, auch dort wissen wir nicht, was rauskommt. Aber es kann sein, dass an zwei Stellen Altersüberprüfungspflichten enthalten sind, die dann zum Beispiel dazu führen würden, dass wenn ein Angebot wie TikTok zum Beispiel eine zwölf oder in anderen Ländern eine Alterskennzeichnung von 15 erhält oder in anderen Ländern wieder eine 16 oder dergleichen, dass dann durch eine Altersüberprüfung auf App-Store-Ebene, Kinder und Jugendliche, die jünger sind, gar nicht mehr an diese Apps herankommen. Also auf einmal kümmert sich sozusagen der App Store um die Altersgrenze und die Plattformen sind gar nicht betroffen von der Regulierung unmittelbar. Wie sich das genau gestaltet, können wir noch nicht sagen. Das ist jetzt Glaskugellesen.
Moderatorin[00:41:26] Danke. Herr Montag, hier kann noch eine Frage an Sie rein. Kritiker eines Verbots argumentieren, dass Kinder und Jugendliche an soziale Medien ja doch herangeführt werden müssten, anstatt ihn mit 16 plötzlich ausgesetzt zu sein. Also das würde ja dann quasi gegen ein striktes Verbot bis 16 Jahren sprechen. Und Bundeskanzler Merz sagte darauf, da müsste man auch Alkohol an Grundschüler ausgeben. Inwiefern trifft der Alkoholvergleich in diesem Kontext zu? Inwiefern hinkt er?
Christian Montag[00:41:54] Ja, der hinkt dahingehend, dass wir natürlich bei Alkoholismus oder der Alkoholnutzungsstörung, wie wir sagen, haben wir natürlich eine toxische Substanz, die zugefügt wird. Und bei den sozialen Medien – ich sagte eben schon, wir haben noch keine offizielle Diagnose – hier würden wir über eine Verhaltenssucht sprechen. Das ist nicht ganz zu vergleichen, muss man ganz ehrlich sagen. Und mich stört das auch immer, diese Vergleiche Kokainabhängigkeit ist wie Social-Media-Sucht. Das greift einfach viel zu einfach. Und die neurowissenschaftliche Studienlage, die wir haben, die zeigt ein komplexeres Bild auf als das. Das muss man ganz ehrlich sagen.
Stephan Dreyer[00:42:39] Ich wollte das ergänzen, dass dieser Vergleich mit Alkohol oder Drogen auch rechtlich hinkt, weil wir es hier mit Diensten zu tun haben, die zentral Informations-und Kommunikationsangebote sind. Das heißt also, sie erfüllen auch eine wichtige Funktion, auch für Kinder und Jugendliche, wenn es darum geht, Meinungen zu äußern, sich mit anderen zu verbinden, sich mit anderen Personen auszutauschen. Das ist eben nicht das Gleiche wie Alkohol, sondern wir haben jetzt zentral wichtige Kommunikationsdienste, über die insbesondere die Jugendlichen dann Informationsmanagement betreiben, Identitätsmanagement, Beziehungsmanagement. Also das ist anders als nur bei Tabak und Alkohol.
Christian Montag[00:43:19] Aber wenn ich vielleicht noch mal dort ansetzen darf. Ich teile die Einschätzung. Jetzt muss man trotzdem natürlich sagen – ich finde, das klingt auch plausibel – wir müssen über die Plattform neu nachdenken. Wenn die Algorithmen verändert werden würden und wir, was wir in Anführungsstrichen, ich sage jetzt mal, „gesündere“ Plattformen sehen würden, dass man zu einer neuen Risikoeinschätzung kommt. Absolut. Jetzt haben wir natürlich gesehen in den letzten Jahren, dass es zum Beispiel Vorstöße gab von Meta, sowas wie Instagram-Kids oder Facebook-Kids ins Leben zu rufen. Dort ist aber dann die Absicht gewesen, man hat gesagt, ja, diese Produkte unterscheiden sich, sie sind deutlich sicherer, aber man hatte natürlich damals das Ziel, noch deutlich jüngere Leute wieder auf die Plattform zu bringen. Das heißt, die Industrie hat in der Vergangenheit mit den etwas „gesünderen“ Produkten – natürlich dann in Anführungsstrichen – andere Ideen gehabt, nämlich noch jüngere Konsumenten und Konsumentinnen zu gewinnen. Und ich glaube, diese Historie sollte man kennen, damit man auch weiß, dass wahrscheinlich dort wieder vorgeprescht wird und man wird versuchen, diese Altersbarrieren eher nach unten zu schrauben. Denn wir wissen durchaus aus der Forschung, je jünger die Nutzer und Nutzerinnen häufig rankommen, dann hat man entsprechend häufig auch Kundschaft für ein Leben. Und ich glaube, das gilt es hier zu entzerren. Also wenn wir über „gesünderes“ Plattformdesign nachdenken, dann plädiere ich persönlich dafür, dass wir dann wirklich über das Jugendalter nachdenken und jetzt nicht darüber, dass wir Kinder auf die Plattform bringen, auch wenn sie vermeintlich „gesünder“ sind. Mir ist total klar, dass soziale Medien Aspekte haben, soziales Kapital aufbauen ist wichtig. Und ich glaube, das gehört auch zur Allgemeinbildung hinzu, dass junge Menschen mit Medienbildung da herangeführt werden müssen. Aber ich glaube, das größere Bild sollte man nicht vergessen, nämlich: Ist es überhaupt sinnvoll, zum Beispiel soziale Medien für Kinder zu entwickeln? Ich glaube, das ist auch eine Frage, die muss man einfach mal vorgeschaltet auch stellen.
Moderatorin[00:45:25] Die Zeit ist schon sehr weit voran geschritten. Es ist ja offiziell bis 17 Uhr. Ich würde ein bisschen überziehen, wenn das für Sie okay ist und noch zwei Fragen von den Journalist:innen stellen und dann zu den Abschlussfragen kommen. Die eine Frage richtet sich sowohl an Herrn Dreyer als auch an Frau Lehmann. Welche rechtlichen und technischen Veränderungen erwarten Sie, wenn die Klage in den USA erfolgreich ist oder wenn die Klagen erfolgreich sind? Welche Folgen hätte das für die Debatte und die Umsetzung in Europa? Vielleicht erst die rechtliche Perspektive, dann die technische.
Stephan Dreyer[00:45:57] Ich glaube nicht, dass es da ein Urteil gibt. Das ist ein zivilrechtliches Klageverfahren und die Kläger sind darauf aus, einen Vergleich herzustellen. Irgendwann dann auch die Beklagten – also Meta in diesem Fall und Google ja auch –, weil das die Kosten mehr senkt als wenn ein Richter dann sagt, welchen Schadensersatz man hier zu leisten hat. Das ist ein Präzedenzverfahren, das heißt, dahinter warten mehrere tausend vergleichbare Fälle. Deswegen glaube ich nicht, dass die Firmen das hier auf ein Urteil ankommen lassen. Wenn es dann aber doch zu einem Urteil kommt, dann kommt es ein bisschen darauf an, wie hart das ausfallen würde.
Stephan Dreyer[00:46:40] Aber in der EU erwarte ich erst mal keine großen Veränderungen, sondern da erwarte ich am ehesten Veränderungen, die auf Basis des Vorgehens der EU-Kommission gemäß DSA dann durchgesetzt werden. Der Vorwurf der EU-Kommission „Verstoß gegen den DSA durch TikTok“ ist ja vor zwei Wochen veröffentlicht worden. Das heißt, das Verfahren läuft jetzt, die Beanstandung ist festgestellt und jetzt muss TikTok der EU-Kommission entgegenkommen und eben entsprechende Vorsorgemaßnahmen einführen. Und die EU-Kommission hat da nicht tiefgestapelt. Sie hat gesagt, ihr müsst euer ganzes Geschäftsmodell umstellen, die Algorithmen, das endlose Scrollen und so weiter. Also ich erwarte mir eher Folgen von diesem Vorgehen auf europäischer Ebene, als jetzt durch mögliche Urteile in den USA.
Moderatorin[00:47:35] Frau Lehmann, haben Sie noch Ergänzungen dazu?
Anja Lehmann[00:47:38] Nicht viel, außer dass ich mir nur wünschen würde, dass vielleicht dann eher der Fokus auf die Probleme und weniger auf die Symptome geht. Also wenn man sieht, das sind eben nicht die Kinder das Problem, sondern eben wirklich Techniken und Algorithmen und man kann auch das angehen, dass sich die Diskussion vielleicht etwas verschiebt. Das wäre so meine Hoffnung, wenn das so kommt.
Moderatorin[00:47:55] Danke. Dann eine letzte Frage speziell an Herrn Montag. Wie geht man mit dem Thema Social-Media-Verbot in China um? Die sind da deutlich weniger zimperlich. Ist das erfolgreicher? Also das ist jetzt quasi das Zitat des Journalisten.
Christian Montag[00:48:11] Ich arbeite ja in Macau. Da gibt es noch mal Sonderrechte, weil dort natürlich auch die westlichen Services zugänglich sind. Also das ist noch mal ein Sonderfall und dort schaut man sich gerade eher besonders interessiert an, wie mit dem Thema rund im Globus umgegangen wird. Also momentan gibt es da jetzt noch nicht diese Bestrebung, wie wir jetzt in Australien gesehen haben oder was bei uns diskutiert wird. In China haben wir ein bisschen eine andere Situation. Der Jugendschutz hat dort natürlich schon dazu geführt, dass die Plattform, zum Beispiel die Schwesterplattform Douyin von TikTok, dass die durchaus anders designt ist. Also dass man zum Beispiel nach 20 Minuten oder wie lang – ich weiß jetzt nicht genau – aber dass dann keine neuen Inhalte gezeigt werden. Das heißt, dort versucht man tatsächlich durch Veränderung des Plattformdesigns eben Veränderungen des Verhaltens herbeizuführen, was dann „gesünder“ ist. Oder ich glaube, Herr Dreyer hat es eben auch gesagt, dass man zu bestimmten Zeiten als Minderjähriger dann diese Services nicht nutzen kann. Das sind andere Herangehensweisen an die Themen und auch hier, glaube ich, ist es wichtig, dass wir darüber erfahren, was Studien erbringen, die sowas evaluieren. Aber auf den ersten Blick – das glaube ich, das haben wir ja ein bisschen heute rausgehört – eine Veränderung der Algorithmen, eine Veränderung des Designs der Plattformen, das scheint mir mal generell ein durchaus potenter Hebel zu sein, um zu besseren Plattformen zu kommen. Aber noch mal: Es ist komplex, denn wir wissen gar nicht so genau von außen, wie einzelne Design-Elemente, also bei uns aus Data-Science-Perspektive, mit welchen Effektstärken, wie stark die in Kombination auf die Nutzenden wirken. Das wäre natürlich fundamental wichtig zu wissen, um auch zu einer Entscheidung zu kommen, welche Design-Elemente lassen wir zusammen auf dem Plattformen in Gemeinschaft wirken.
Moderatorin[00:50:11] Danke schön. Dann möchte ich jetzt zu den Abschlussfragen kommen und starte mit Ihnen Frau Lehmann. Aus Perspektive der Datensicherheit, was halten Sie für wichtig bei der medialen Berichterstattung zu Altersverifikationssystemen?
Anja Lehmann[00:50:24] Drei Dinge wären mir wichtig. Das eine hat schon mehrfach gesagt, dass man nicht direkt zu von der Lösung Altersverifikation springt, sondern sich das unterlegende Problem anschaut und überlegt, ob es da nicht sogar grundlegende, größere Änderungen geben muss. Das Zweite ist, dass wenn über digitale Altersnachweise gesprochen wird – wie über die EUDI-Wallet, die eben auf Ausweisen aufsetzt – dass man hier klar kommuniziert, dass man sich zwar mit der App auch identifizieren kann, ich kann mit der App auch ein Bankkonto eröffnen, aber in dem Moment, wo ich einen Altersnachweis mache, man sich anonym ausweist und nur den Alter preisgibt. In dem Moment, wo man wieder Identifikation und Nachweis vermischt, glaube ich, entstehen eine Menge Ängste, die wirklich nicht gerechtfertigt sind, weil es datenschutzmäßig der datensparsamste Ansatz wäre. Und das Letzte, was ich auch schon erwähnt hatte, dass in der ganzen Diskussion auch die Risiken, die durch die Altersverifikation hinzugefügt werden wie Infrastruktur und wieder ein Datenschutzproblem et cetera, auch mit berücksichtigt werden und in die Verhältnismäßigkeit in die Diskussion davon mit entsprechend einfließen können.
Moderatorin[00:51:24] Vielen Dank. Sie meinten in unserem Gespräch, dass Sie 17 Uhr eventuell los müssen. Wenn Sie müssen, dann würde ich sagen, vielen Dank und Sie können dann ab jetzt gehen, dann mache ich mit den anderen Abschlussfragen weiter. Tschüss, auf Wiedersehen. Als nächstes an Herrn Dreyer. Und zwar, möchte ich in den Abschlussfragen generell die mediale Berichterstattung thematisieren. Was halten Sie denn für wichtig aus der rechtswissenschaftlichen Perspektive? Also was ist wichtig bei der Berichterstattung zum Thema Regulierung sozialer Medien in Bezug auf die juristische Perspektive?
Stephan Dreyer[00:52:01] Ich würde mich freuen über mehr Einordnung der Vorschläge. Was bedeuten solche allgemeinen Verbote aus rechtlicher Sicht und wie können wir sie implementieren? Welche Hürden fallen uns da auf? Das wäre, glaube ich, hilfreich. Und ansonsten finde ich es schade, dass hier die unterschiedlichen Vorschläge jetzt gegeneinander ausgespielt werden, 16, 14, mit elterlicher Zustimmung. Am Ende geht es ja allen darum, hier den Schutz zu verbessern für Kinder und Jugendliche. Und irgendwie werden jetzt aber diese Fronten gegeneinander sozusagen gehetzt, was ich ganz, ganz schade finde, denn wir hatten – das muss man auch sagen – seit Jahren nicht mehr so eine Sichtbarkeit dieser Probleme, die Kinder und Jugendliche mit der sozialen Mediennutzung haben. Insofern finde ich es eigentlich erst mal toll, dass das Thema so hochkocht. Schade ist dann, wenn dann intern in alle, die besseren Schutzverlangen, dann Keile getrieben werden. Also insofern, wo ich auch mal die große Flughöhe einnehmen und sagen: „Wir wollen alle das Gleiche. Wir wollen den Schutz verbessern. Das würde mich freuen. Also so ein bisschen positiv gewendet vielleicht.
Moderatorin[00:53:10] Danke schön. Und dann zuletzt, Herr Montag: Was halten Sie für wichtig bei der medialen Berichterstattung rund die Themen zu sozialen Medien und psychischer Gesundheit? Also den psychologische Blick einmal.
Christian Montag[00:53:22] Ich würde mir natürlich wünschen, dass das alles ein bisschen nuancierter stattfindet, dass wir nicht in moralische Panik verfallen. Das ist so ein üblicher Reflex, den wir auch aus der Geschichte der Technologieforschung kennen. Es ist egal, ob das Radio eingeführt worden ist, die Comicbücher kamen, TV-Computerspiele. Es lässt sich doch immer wieder so ein Muster erkennen, dass auf einmal alles ganz emotional wird und das ist ja alles Teufelszeug. Also ich glaube, wenn ich wissenschaftlich draufschaue: Ja, es gibt einige Punkte, über die müssen wir sprechen. Es ist gut, dass wir diese Sichtbarkeit haben. Aber es sollte auch klar transportiert werden, was wir aktuell noch nicht wissen. Das hat unterschiedliche Gründe und auch so ein Stück weit berücksichtigen, dass viele Ergebnisse mit schwachen Effektstärken versehen sind. Also das bedarf natürlich auch einer gewissen Bildung, die dahinter ist, diese Studien zu verstehen. Und natürlich auch immer darauf hinzuweisen, dass es selten so einfach ist, wie dann häufig Schlagzeilen der Vergangenheit gelautet haben, die sozialen Medien machen... Es ist komplex.
Moderatorin[00:54:30] Danke schön. Dann vielen Dank an Sie beide auch noch mal. Danke, dass Sie heute hier waren und die ganzen Fragen beantwortet haben. Danke an die Journalistinnen und Journalisten für die Fragen, die sie gestellt haben und für die Aufmerksamkeit und die Geduld an dem langen Press Briefing zu dem Thema teilzunehmen und danke auch an meine Kolleginnen und Kollegen, die mich hier im Hintergrund unterstützen und das Press Briefing möglich machen. Das Video wird es voraussichtlich in circa zwei Stunden auf der Website geben und das maschinelle erstellte Transkript kann per Mail erfragt werden. Das redigierte Transkript gibt es dann voraussichtlich morgen Nachmittag, im Laufe des Tages. Genau, dann vielen Dank für Ihre Aufmerksamkeit. Ich wünsche Ihnen noch einen sehr schönen Tag und auf Wiedersehen.

