EU-Resolution zum Schutz Minderjähriger im Internet
EU-Parlament fordert unter anderem Altersbeschränkungen für soziale Medien und besseren Schutz vor suchterzeugenden Online-Inhalten
nun steigt der politische Druck auf die Kommission, strenger gegen Verstöße vorzugehen und Gesetze nachzuschärfen
Forschende betonen, dass Geschäftsmodelle sozialer Medien das Wohl von Kindern und Jugendlichen gefährden; eine pauschale Altersbegrenzung wird teils als angemessen eingeschätzt, teils wird der starke Eingriff in Grundrechte kritisch gesehen
Am 26. November hat das EU-Parlament in einer Resolution einen stärkeren Schutz Minderjähriger im Internet angemahnt [I] [II]. Unter anderem forderte es eine europaweite Altersgrenze von 16 Jahren für soziale Medien, Video-Plattformen und KI-Begleiter mit Risiken für Minderjährige – außer Eltern stimmen der Nutzung vorher zu. Für Kinder unter 13 Jahren soll der Zugang zu sozialen Medien generell untersagt werden. Die Kommission wird dazu aufgerufen, Mechanismen zur Altersverifizierung gesetzlich besser zu regeln, um einen einheitlichen Schutz in allen EU-Staaten sicherzustellen.
Die mit 483 zu 92 Stimmen, bei 86 Enthaltungen, angenommene Resolution enthält zudem viele weitere Forderungen, um das Online-Umfeld für Kinder sicherer zu gestalten: Suchterzeugende Elemente sollen stärker reglementiert, Marketing für Kinder eingeschränkt und sogenannte Dark Patterns – also beispielsweise manipulative Designs – besser verhindert werden. Mit der Resolution fordert das Parlament die EU-Kommission auf, den Digital Services Act strenger anzuwenden und Lücken in der Gesetzgebung zu schließen. Zwar hat die Resolution keinen direkten Gesetzescharakter, sie kann aber Anstoß für neue Gesetzgebungsprozesse durch die Kommission sein.
Leiterin der Forschungsgruppe Internetnutzungsstörungen, Universitätsklinikum Tübingen
Gesamturteil zur Resolution
„Ich finde die Resolution sehr gelungen. Sie umfasst verschiedene Perspektiven und Aspekte, wobei naturgemäß der Fokus auf den negativen Folgen digitaler Medien liegt und positive Aspekte zu kurz kommen.“
„Ein großer Teil der Resolution konzentriert sich auf soziale Netzwerke, teilweise wird auch über Gaming, selten über Pornografie, nicht über Online-Shopping oder Online-Glücksspiel – außer im Kontext digitaler Spiele – berichtet. Besonders Online-Pornografie spielt bei Jugendlichen aber eine Rolle. Teilweise werden einzelne Geräte wie Smartphones in den Blick genommen, etwa im Kontext Schule. Teilweise wird über Bildschirmzeiten allgemein geschrieben. Das macht es etwas schwer, alle Ideen und Empfehlungen für einzelne Bereiche zu überblicken.“
„Es fehlt an vielen Stellen der Verweis auf Evidenz, was keine Kritik an der Resolution ist, sondern der Realität entspricht. Beispielsweise wird die Förderung der Medienkompetenz gefordert. Es gibt aber kaum wissenschaftliche Befunde zum präventiven Effekt solcher Maßnahmen. Wo die Evidenz fehlt, wird auf das Vorsorgeprinzip verwiesen. Das halte ich für sinnvoll. Als Forscherin begrüße ich vor allem die Forderung, dass die Tech-Anbieter Daten teilen sollten. Das wäre hilfreich und ein Meilenstein.“
Altersgrenzen
„Für die Festlegung eines eindeutigen und klaren Mindestalters fehlt die wissenschaftliche Evidenz. Am ehesten gibt es Evidenz dazu, dass der negative Einfluss von Smartphones und sozialen Medien auf die psychische Gesundheit ab einem Alter von 13 Jahren weniger stark ausgeprägt ist. Ab einem Alter von 16 Jahren dürfen einwilligungsfähige Jugendliche ohne die Zustimmung der Eltern über ihre Datennutzung entscheiden. Daher sind die Altersabstufungen – soziale Medien ab 13 Jahren mit Zustimmung der Eltern, ab 16 auch ohne Zustimmung – nachvollziehbar und aus meiner Sicht verhältnismäßig. Unklar bleibt, was genau mit sozialen Medien in der Resolution gemeint ist – auch Youtube, Whatsapp und Spotify?“
Verbote von Designelementen
Auf die Frage, inwiefern die beschriebenen Features und Inhalte, die verboten werden sollen (wie Marketing und KI), die relevanten sind:
„In Bezug auf soziale Netzwerke sind das wohl die zentralen Kategorien. Unklar bleibt oft, was genau gemeint ist. Was versteht die Resolution beispielsweise unter ‚dark patterns‘? Hier sind schon einige Beispiele genannt, eine detailliertere Aufschlüsselung wäre im Verlauf jedoch sinnvoll, damit Tech-Anbieter genau wissen, welche Mechanismen sie für die 13 bis 15-Jährigen zukünftig nicht mehr anbieten sollen.“
„Ich würde mir darüber hinaus wünschen, dass Tech-Anbieter zumindest einen Teil ihrer Marketing-Strategien transparent machen müssen und die Option eingeräumt wird, diese Strategien abzulehnen – etwa algorithmusbasierte Inhaltsvorschläge, Like-Optionen. Dies nicht nur für Jugendliche ab 16, sondern auch für Erwachsene.“
Methode zur Altersverifikation (EU Digital Identity Wallet)
„Das ist vermutlich die realistischste und greifbarste Lösung. Diese müsste von den Unternehmen in Anspruch genommen werden – sie sind ja schließlich für die Umsetzung der Altersverifikation verantwortlich.“
Online-Sucht
„Insgesamt halte ich den Abschnitt zur digitalen Abhängigkeit für gut, allerdings ist er an manchen Stellen etwas schwammig. Insgesamt wird oft gewechselt zwischen Herausforderungen im Allgemeinen, oder Bezug auf soziale Medien genommen, worauf der Hauptfokus liegt, oder auf Gaming. Es ist nicht immer klar, an wen Forderungen gerichtet sind.“
Definition von Social-Media-Sucht
„Es geht nicht um die Menge, sondern um folgende drei Kriterien: Erstens geht es um Kontrollverlust – dieser wird von 68 Prozent der Jugendlichen in Deutschland erlebt [1]. Zweitens geht es um die Priorisierung von sozialen Netzwerken gegenüber anderen Lebensbereichen. Drittens geht es um die Fortsetzung des Verhaltens trotz negativer Konsequenzen. Die Kriterien sind gemäß der S1-Leitlinie zu Internetnutzungsstörungen angelehnt an die Kriterien der Gaming Disorder aus dem ICD-11 der WHO.“
„Generell und unabhängig von der Resolution sollte in der Berichterstattung zu Social-Media-Sucht die Unterscheidung zwischen ‚Sucht‘ im Alltagsgebrauch – wie etwa in der Formulierung ‚ich suchte‘ – und ‚Sucht‘ im klinischen Gebrauch – ein klares Problem, das lebenslange Konsequenzen nach sich ziehen kann – beachtet werden.“
Evidenz zu Gefahren durch soziale Medien
„Die Evidenz, dass soziale Medien gefährlich sein können, ist je nach Thema schwach – etwa für psychisches Wohlbefinden – bis gut – bezüglich Körperbildern. Wir sehen, dass nicht alle Jugendlichen durch soziale Netzwerke Negatives erfahren. Manche bleiben unbeeinträchtigt oder verspüren sogar eine Steigerung des Wohlbefindens. Wir wissen noch zu wenig über die Mechanismen – wie etwa die Wirkung der oben genannten Marketing- und KI-Strategien, individuelle Risikofaktoren, wie zum Beispiel Geschlecht, Tendenz zum sozialen Vergleich, und Nutzungsmuster, etwa zu Nutzungsmotiven und aktiver oder passiver Nutzung.“
Rechtfertigung von Einschränkungen nach dem Vorsorgeprinzip
„Ja, die Evidenz rechtfertigt nach dem Vorsorgeprinzip Einschränkungen – auch wenn das bedeutet, dass manche Jugendliche ungerechtfertigt eine Einschränkung erfahren. Die Mehrheit der Befunde zeigt, dass die Nutzung sozialer Netzwerke für eine große Gruppe Jugendlicher – je nach thematischem Fokus zum Beispiel circa 30 Prozent – tendenziell schädlich ist.“
Senior Researcher Medienrecht & Media Governance, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI)
Gesamturteil zur Resolution
„Der Vorschlag zeichnet sich durch eine breite Perspektive auf den Kinder- und Jugendmedienschutz im Digitalen aus, der rechtlich von einer ganzen Reihe europäischer Rechtsakte und nationaler Gesetze gerahmt ist. Die Resolution spricht viele teils sehr unterschiedliche Entwicklungen, Risikophänomene und mögliche Verbesserungsmaßnahmen an. Eine Kurzbewertung kann hier nur an der Oberfläche kratzen. Drei Dinge aber fallen auf:“
„Die Beschreibung der Ausgangslage erfolgt relativ ausgewogen und weist auf Vor- und Nachteile der Onlinenutzung von Minderjährigen hin, auch die Relevanz von Kinderrechten in digitalen Umgebungen wird hervorgehoben. Einige der anschließenden Forderungen lesen sich dann aber im Kern als Katalog von Verboten, frei nach dem Motto: komplexe Herausforderungen, schwierige Interessen- und Rechtslage, Verbote als schnelle Lösung.“
„Dort, wo Phänomene bereits rechtlich umhegt sind, fordert das Parlament reihenweise besseren und effektiveren Vollzug der bestehenden Normen. Das ist sicher Ausdruck von Unzufriedenheit mit den teils schleppend laufenden Beanstandungsverfahren der Europäischen Kommission und teils zurückhaltend agierenden Medienaufsichtsbehörden in einigen EU-Mitgliedstaaten.“
„Außerdem erweitern die Forderungen nach Verbesserung des Online-Schutzes den bestehenden Rechtsrahmen und die bisherigen politischen Forderungen um zwei große Bereiche: Neben einem gesetzlichen Mindestalter von 16 Jahren für den Zugang zu sozialen Medien sollen weitere Vorschriften geschaffen werden, die den Zugang zu Video-Sharing-Plattformen und KI-Chatbots auf über 13-Jährige beschränken. Außerdem sollen Videospiele – insbesondere Online-Games – einem ähnlichen Schutzstandard unterworfen werden wie derzeit die großen Online-Angebote.“
Verhältnismäßigkeit der Vorschläge
„Viele der vorgeschlagenen Maßnahmen sind nachvollziehbar und entsprechen der wissenschaftlichen und juristischen Diskussion in Europa: zum Beispiel die effektivere Rechtsdurchsetzung des Digital Services Act im Hinblick auf den Kinder- und Jugendmedienschutz auf Online-Plattformen, das verstärkte Vorgehen gegen verbraucherschutzrechtliche Phänomene wie sogenannte Dark Patterns, die zeitgemäßere Gestaltung rechtlicher Vorgaben für das Influencer-Marketing und den Umgang mit gesundheitlichen Nutzungsrisiken wie zu langer oder zu später Mediennutzung.“
„Schwieriger zu bewerten ist die Forderung nach einem grundsätzlichen Verbot der Nutzung von sozialen Medien für unter 16-Jährige – beziehungsweise bei Zustimmung der Erziehungsberechtigten für unter 13-Jährige. Hier wird es auf die konkrete Umsetzung eines Verbots ankommen: Welche Angebote fallen unter das Mindestalter? Wer wird wie zur Einhaltung der Altersgrenze verpflichtet – und wer nicht? Wie breit müssen Anbieter die Nutzenden um einen Altersnachweis bitten – müssen auch alle Volljährigen sich plattformweit einer Altersüberprüfung unterziehen? Welche Anforderungen werden an den Grad der Sicherheit und die Datenschutzaspekte einer Altersüberprüfung gestellt?“
„Mit dem Entschluss, ein Mindestalter für bestimmte Angebote einzuführen, gehen die Fragen der Umsetzbarkeit und der Verhältnismäßigkeit der konkreten rechtlichen Umsetzung eigentlich erst los. Adäquate, niedrigschwellige und datensparsame Altersüberprüfungsverfahren, möglicherweise leichte Umgehungen durch die Nutzung von Fake-Identitäten oder VPN-Diensten und das Ausweichen auf alternative Angebote außerhalb eines umsetzbaren Verbots sind einige der Herausforderungen, die dabei zu lösen sind.“
Rechtliche Konsequenzen der Resolution
„Bei dem Beschluss handelt es sich um eine vom EU-Parlament selbst initiierte Resolution. Ihre Inhalte sind rechtlich nicht verbindlich. Aber das Parlament kann damit zeigen, welche Themen es derzeit für relevant hält und mit welchen zukünftigen Aktivitäten und Verbesserungsvorschlägen sich EU-Kommission, Rat und auch das Parlament beschäftigen sollen. Insgesamt ist eine Resolution ein Instrument politischer Kommunikation, kein Gesetzesakt.“
„Allerdings wird es absehbar zur Umsetzung einiger Forderungen kommen, denn die politischen Akteure in Kommission, Parlament und Rat sind sich derzeit großflächig einig. Zuvor hatten bereits die Mitgliedstaaten in der Jütland Deklaration [2] ähnliche Forderungen aufgestellt. Ursula von der Leyen als Kommissionspräsidentin hatte im Nachgang des letzten EU-Gipfels ebenfalls in Aussicht gestellt, sich um einen verbesserten Kinder- und Jugendmedienschutz im Netz zu kümmern.“
Rechtfertigung von Einschränkungen nach dem Vorsorgeprinzip
„Es gibt statistische Zusammenhänge zwischen der Art der Nutzung von sozialen Medien und Entwicklungsstörungen bei Heranwachsenden. Ein kausaler Zusammenhang hat sich aber noch nicht nachweisen lassen. Das wird angesichts vielfältiger Mediennutzung und sehr komplexer Entwicklungsstörungen auch zukünftig schwierig sein. Korrelative Zusammenhänge können den Gesetzgeber aber ermächtigen, mit Blick auf später schwer rückholbare Fehlentwicklungen sicherheitshalber rechtliche Vorkehrungen zu treffen. An diese Vorkehrungen – wie hier die Einführung eines Mindestalters – sind dann aber entsprechend hohe Anforderungen zu stellen, was die Eignung, die Erforderlichkeit und die Angemessenheit der Maßnahme angeht. Diesen Anforderungen zu entsprechen, wird die große Herausforderung bei der Gestaltung einer späteren gesetzlichen Vorschrift sein.“
„Denn bei sozialen Medien handelt es sich in der Regel um Plattformen mit Inhalten, die größtenteils keine Jugendschutzrelevanz haben oder den Informationsbedürfnissen von Kindern und Jugendlichen sogar optimal entsprechen. Eine Totalverbot erscheint dann als besonders intensiver Einschnitt in ihre Informations- und Kommunikationsfreiheiten. Im Vergleich zu einem Mindestalter könnte die effektive Umsetzung der bestehenden europarechtlichen Pflicht zur Gestaltung altersangemessener Plattformangebote als milderes Mittel erscheinen – etwa durch die nutzungs- und entwicklungsbezogene Gestaltung der Empfehlungssysteme, die Einschränkung von Interaktions- und Kommunikationsfunktionen sowie die zeitliche Beschränkung der Nutzungsmöglichkeiten. Auch Formen der einfacheren und besseren elterlichen Begleitung erscheinen als weniger grundrechtsintensive Eingriffe als Verbote.“
„Zudem haben Kinder und Jugendliche ein menschenrechtlich und kinderrechtlich verbrieftes Recht auf Zugang zu relevanten Informationen, auf sozialen Austausch mit Gleichaltrigen – auch über digitale Wege –, auf Unterhaltung und auf Spiel. Verbote müssen auch mit Blick auf Zugangs- und Teilhaberechte haltbar sein. Dies wird im weiteren Verlauf der Debatte ausführlich diskutiert werden müssen, denn bislang sind die Perspektiven und Stimmen der Jüngeren nicht systematisch in die Debatte eingeflossen.“
Assistenzprofessorin für Unterhaltungsforschung, Institut für Publizistik- und Kommunikationswissenschaft, Universität Wien, Österreich
Gesamturteil zur Resolution
„Verbote mögen in bestimmten Situationen sinnvoll sein, greifen jedoch für die komplexen Plattformrisiken vermutlich zu kurz. Positiv ist, dass die Resolution eine Multi‑Stakeholder‑Perspektive betont. Dies meint die gemeinsame Verantwortung von Eltern und Erziehungsberechtigten, Behörden, Plattformen und Schulen für den Schutz von Minderjährigen im digitalen Raum. Ebenfalls hervorzuheben ist, dass neben Maßnahmen zur Schadensvermeidung auch Initiativen zur Förderung eines positiven Umgangs mit digitalen Medien vorgesehen sind, etwa die systematische Stärkung von kritischem Denken sowie Medien‑ und Digitalkompetenz.“
Altersgrenzen
„Es ist fraglich, ob ein pauschales Verbot sozialer Medien für unter 16-Jährige den gewünschten Effekt erzielt. Entscheidend ist, das Recht auf sichere, kinder- und jugendgerechte digitale Räume zu gewährleisten. Zudem wirft das geforderte Verbot zahlreiche praktische und rechtliche Fragen auf. Zum Beispiel besteht die Gefahr, dass ein Verbot Jugendliche in unregulierte Räume drängt – mit höheren Risiken und geringeren Hilfsangeboten. Ein weiteres Argument ist, dass eine Altersgrenze von 16 Jahren die Rechte und die Teilhabe junger Menschen am öffentlichen Diskurs beschneidet. In Australien wird gegen das jüngst eingeführte Verbot mit diesem Einwand vor Gericht geklagt.“
„Meiner Ansicht nach liegt das zugrunde liegende Problem darin, dass soziale Medien auf einem Geschäftsmodell basieren, das maximale Aufmerksamkeit und Nutzungszeit belohnt. Algorithmische Verstärkung, manipulatives Design und unfaire Praktiken gefährden das Wohl von Nutzerinnen und Nutzern, insbesondere von Kindern und Jugendlichen. Der Digital Services Act formuliert klar, dass Plattformen die Verantwortung tragen, ihre Angebote so zu gestalten, dass sie Minderjährigen keinen Schaden zufügen.“
Evidenz zu Gefahren durch soziale Medien
„Die Evidenz zu den Gefahren sozialer Medien ist heterogen und vielschichtig. Um ein konkretes Beispiel zu bringen: Vorbelastete Jugendliche sind meist häufiger und intensiver online und bekommen zusätzlich durch algorithmische Kuratierung häufiger problematische Inhalte zu sehen. Gleichzeitig bieten soziale Medien gerade denjenigen, die offline wenig Anschluss finden, wichtige Räume für Austausch, Unterstützung und Gemeinschaft.“
„Wenn es uns als Gesellschaft ein Anliegen ist, die Risiken deutlicher zu identifizieren, benötigen wir auch die entsprechenden Mittel, um evidenzbasierte und zielgerichtete Entscheidungen zu treffen. Es braucht transparente Plattformen, besseren Datenzugang für die Forschung und Schutzmaßnahmen, die in Zusammenarbeit mit den Betroffenen entwickelt werden. Im Forschungsprojekt ‚Promise‘, das von ‚Chanse‘ (Collaboration of Humanities and Social Sciences in Europe) gefördert wird, gehen wir Schritte in diese Richtung. Das Projekt bringt fünf europäische Forschungsteams zusammen, um Regularien sozialer Medien in Zusammenarbeit mit Jugendlichen zu entwickeln und zu testen. Wir wollen herausfinden, welche Maßnahmen schädliche Auswirkungen wirksam verringern und das Wohlbefinden junger Menschen stärken. Unser Ziel ist es, Politik und Praxis mit belastbaren wissenschaftlichen Erkenntnissen zu unterstützen.“
Wissenschaftliche Mitarbeiterin, Abteilung Allgemeine Psychologie: Kognition, Universität Duisburg-Essen
Gesamturteil zur Resolution
„Durch die Resolution rückt der Schutz von Minderjährigen im Internet und im Umgang mit sozialen Medien in den Vordergrund. Dabei wird betont, dass junge Menschen ein Recht auf digitale Integration und Sozialisation haben, ohne dabei manipuliert oder riskanten Inhalten ausgesetzt zu werden. Daraus ergibt sich das Ziel, Nutzende aufzuklären, zu unterstützen und Hilfestellungen anzubieten. Zusätzlich wird klar, dass die Nutzung nicht im rechtsfreien Raum stattfindet, sondern insbesondere zum Schutz von Minderjährigen auch Regularien unterliegt. Wie dieser Schutz erfolgen soll und welche Maßnahmen abgeleitet werden, wird in der Resolution definiert. Dies umfasst den Schutz vor personalisierter Werbung, vor KI-generierten Inhalten oder vor bestimmten Design-Features.“
Altersgrenzen
„Als schwierig erachte ich die Formulierung eines grundsätzlichen Verbots bis zum Alter von 16 Jahren. Dies scheint im Widerspruch zum Ziel der sicheren digitalen Umgebung zu stehen. Es sollte vielmehr die stärkere Zielsetzung sein, Minderjährige selbstbestimmt, aufgeklärt und geschützt an die Nutzung heranzuführen. Das könnte bedeuten, dass der Fokus eher auf der Realisierung von altersbeschränkten Funktionen, der Prüfung von einzelnen Wirkmechanismen und der Aufklärung über die Zielsetzung von sozialen Medien liegen sollte.“
Verbote von Designelementen
„Die genannten Aspekte wie Schutz vor personalisierter Werbung oder vor KI werden von verschiedenen Expert:innen als wichtig erachtet. Studien illustrieren vermehrt auch die emotionale Bindung von Nutzenden mit KI.“
„Der Effekt von ‚Design Features‘ umfasst wichtige Aspekte. Hier sind Studien zu beachten, die prüfen, welche Wirkmechanismen durch die einzelnen Funktionen angesprochen werden. Dabei kann es sich um ‚Features‘ handeln, die beispielsweise das Belohnungssystem ansprechen. Wenn Nutzer*innen die Erfahrung gemacht haben, dass sie sich gut fühlen, zugehörig oder eine positive Bestätigung – zum Beispiel durch ein ‚Like‘ – erhalten haben, dann kann dies die Wahrscheinlichkeit einer verstärkten beziehungsweise häufigeren Nutzung erhöhen. Auch personalisierte Algorithmen aktivieren das Belohnungssystem und fördern hedonistische Erfahrungen.“
„‚Fomo‘ (Fear of missing out; Anm. d. Red.) ist ein wichtiger Wirkmechanismus im Zusammenhang mit einer intensiven Nutzung digitaler Anwendungen wie social Media. Die regelmäßige Nutzung und Überprüfung von Inhalten dienen dazu, die Angst, etwas zu verpassen, zu reduzieren, und können gleichzeitig zu einer intensiveren Nutzung führen. Funktionen, in denen Inhalte nur für einen begrenzten Zeitraum verfügbar sind, können dies möglicherweise zusätzlich verstärken.“
Abschnitt der Resolution zur Online-Sucht
„Dieser Abschnitt greift wesentliche Aspekte, die Risikofaktoren einer problematischen Nutzung darstellen unter Berücksichtigung von medienspezifischen Merkmalen auf. Dabei wird insbesondere herausgestellt, welche Wirkmechanismen durch die bestimmten Funktionen der Anwendungen aufgegriffen werden sollen.“
„Zusätzlich könnte noch die Frage gestellt werden, ob der Zusammenhang zwischen digitalen Anwendungen und einer problematischen Nutzung so kausal ist, oder ob weitere affektive und kognitive Faktoren wie Fähigkeiten der Emotionsregulation und der Selbstkontrolle mit bedacht werden müssen und die Wirkmechanismen der Anwendungen eine verstärkende Funktion ausüben.“
Definition von Social-Media-Sucht
„Social-Media-Sucht wird nicht als offizielles Störungsbild in den gängigen Klassifikationssystemen wie dem ICD-11 und dem DSM-5 definiert. Darin unterscheidet sich die problematische Nutzung von der Computerspielstörung, klassifiziert als (Internet-)Gaming-Disorder. Im ICD-11 werden folgende Kriterien für die Computerspielstörung beschrieben: erstens, die reduzierte Kontrolle über die Nutzung, hinsichtlich Dauer, Intensität und Häufigkeit, zweitens, die zunehmende Priorisierung der Nutzung gegenüber anderen Interessen und Aktivitäten und drittens die Weiterführung des Verhaltens trotz Erlebens negativer Konsequenzen, die tatsächlich auf das Verhalten zurückzuführen sind. Entscheidend ist, dass dies zu einem signifikanten Leidensdruck und Belastungen in verschiedenen Lebensbereichen führt.“
„Auch bei der Nutzung sozialer Medien gibt es Evidenz, die veranschaulicht, dass Personen aufgrund einer intensiven Nutzung einen subjektiven Leidensdruck und funktionelle Beeinträchtigungen in verschiedenen Lebensbereichen erleben. Diese Evidenz und der subjektiv wahrgenommene Leidensdruck müssen ernst genommen werden. Gleichzeitig wären klare diagnostische Kriterien ein wichtiger Leitfaden, um eine problematische Nutzung von einer intensiven Nutzung oder von anderen Nutzungsformen abzugrenzen.“
Evidenz zu Gefahren durch soziale Medien
„Es gibt beispielsweise korrelative Studien, die illustrieren, dass eine problematische Nutzung mit ADHS-Symptomatik, erhöhter Impulsivität, Schlafstörungen, Depression und Ängstlichkeit, aber auch Tendenzen einer Essstörung oder Unzufriedenheit mit dem eigenen Körper einhergeht. Aktuelle Studien unterstreichen außerdem, dass eine problematische Nutzung mit Schwierigkeiten der Selbstkontrollfähigkeiten oder mit erhöhten affektiven Reaktionen wie dem Verlangen, die Nutzung jetzt auszuüben, assoziiert sind.“
„Gleichzeitig gibt es auch Studien, in denen der Zusammenhang zwischen der nicht-problematischen Nutzung und negativen Konsequenzen auf das individuelle Wohlbefinden nicht ermittelt werden konnte.“
„Es erscheint wichtig, die Nutzung explizit zu definieren, um mögliche Langzeitkonsequenzen zu adressieren.“
„Es liegen keine Interessenkonflikte vor.“
„Es bestehen keine Interessenkonflikte, die die Inhalte oder Schlussfolgerungen dieser Stellungnahme beeinflussen könnten.“
Alle anderen: Keine Angaben erhalten
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Feierabend S et al. (2025): JIM 2025. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland.
[2] Rat der Europäischen Union (10.10.2025): The Jutland Declaration: Shaping a Safe Online World for Minors.
Literaturstellen, die vom SMC zitiert wurden
[l] Europäisches Parlament (04.11.2025): Bericht über den Schutz von Minderjährigen im Internet. Der Bericht enthält die Entschließung (Resolution) des Parlaments.
[lI] Europäisches Parlament (26.11.2025): Parlament fordert: Zugang zu sozialen Medien ab 16 Jahren. Pressemitteilung.
[III] Science Media Center (2025): Soziale Medien: Verbote und Altersgrenzen für Jugendliche. Press Briefing. Stand: 24.06.2025.
[IV] Science Media Center (2023): Auswirkungen sozialer Medien auf mentale Gesundheit. Press Briefing. Stand: 12.12.2023.
Dr. Isabel Brandhorst
Leiterin der Forschungsgruppe Internetnutzungsstörungen, Universitätsklinikum Tübingen
Dr. Stephan Dreyer
Senior Researcher Medienrecht & Media Governance, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI)
Angaben zu möglichen Interessenkonflikten
„Es liegen keine Interessenkonflikte vor.“
Prof. Dr. Kathrin Karsay
Assistenzprofessorin für Unterhaltungsforschung, Institut für Publizistik- und Kommunikationswissenschaft, Universität Wien, Österreich
Angaben zu möglichen Interessenkonflikten
„Es bestehen keine Interessenkonflikte, die die Inhalte oder Schlussfolgerungen dieser Stellungnahme beeinflussen könnten.“
Dr. Elisa Wegmann
Wissenschaftliche Mitarbeiterin, Abteilung Allgemeine Psychologie: Kognition, Universität Duisburg-Essen