Zum Hauptinhalt springen
08.03.2019

EU-Urheberrechtsreform: Experten zu Upload-Filtern

Anlass

Ende März 2019 soll das EU-Parlament über die neue EU-Urheberrechtsreform entscheiden. Doch schon jetzt wird darüber heftig diskutiert. Fast fünf Millionen Menschen haben Mitte Februar eine Petition gegen die geplante Reform unterschrieben, tausende Bürger demonstrierten gegen die Novelle. Insbesondere Artikel 13 der Richtlinie steht in der Kritik: Er könnte Online-Plattformen zur Installation von Upload-Filtern zwingen. Aber auch andere Teile der Richtlinie werden bemängelt, insbesondere die Artikel 11 und 3.

Gleichzeitig nimmt die Verwirrung um das parlamentarische Verfahren zu: Obwohl die Entscheidung noch nicht gefallen ist, veröffentlichte der offizielle Twitter-Account des Europaparlaments ein Video, das die Richtlinie verteidigte. Kurze Zeit stand zudem im Raum, die finale Abstimmung des Europaparlaments – eigentlich geplant für die letzte Märzwoche – auf den 12. oder 14. März vorzuziehen. Inzwischen ist jedoch bestätigt, dass der ursprüngliche Termin eingehalten wird.

 

Übersicht

  • Dr. Stephan Dreyer, Senior Researcher Medienrecht & Media Governance, Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI), Universität Hamburg
  • Prof. Dr. Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft, Universität Paderborn
  • Prof. Dr. Florian Gallwitz, Professor für Medieninformatik, Technische Hochschule Nürnberg Georg Simon Ohm
  • Prof. Dr. Tobias Gostomzyk, Professor für Medienrecht, Technische Universität Dortmund
  • Prof. Dr. Andreas Hotho, Leiter der Data Mining und Information Retrieval Group, Institut für Informatik, Julius-Maximilians-Universität Würzburg
  • Prof. Dr. Marcus Liwicki, Leiter der MindGarage, Technische Universität Kaiserslautern, und Chair of the Machine Learning Group, Lulea University of Technology, Schweden
  • Prof. Dr. Tobias Keber, Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien, Stuttgart

Statements

Dr. Stephan Dreyer

Senior Researcher Medienrecht & Media Governance, Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI), Universität Hamburg

Zur Frage, ob der Einsatz von Upload-Filtern durch die Vorgaben des Gesetzes unumgänglich wäre:
„Artikel 13 der EU-Urheberrechtsreform sieht den Einsatz von Upload-Filtern nicht ausdrücklich vor. Viele Expertinnen und Experten sind aber der Ansicht, dass sich die Anbieter einer Haftung in der Praxis nicht anders entziehen können als mit hochgradig automatisierten Systemen. Die manuelle Analyse, Lizenzierung und Freischaltung einzelner Nutzerinhalte ist zu personalintensiv und zu teuer und käme einher mit deutlichen zeitlichen Verzögerungen. Nutzergenerierte Plattformen sähen dann komplett anders aus als wie wir sie heute kennen. Ein alternativer Regelungsansatz wäre die vereinfachte Lizenzierung, wie sie sich etwa bei der Privatkopievergütung etabliert hat: Der Gesetzgeber erlaubt bestimmte Verwertungshandlungen ausdrücklich und spricht den Rechteinhabern im Gegenzug Vergütungen auf Grundlage von Pauschalabgaben zu.“

Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären:
„Derzeitige Verfahren maschinellen Lernens können solche Faktoren nur sehr begrenzt mit berücksichtigen. Selbst Urheberrechtsexpertinnen und -experten können unsicher sein bei der Anwendbarkeit urheberrechtlicher Schrankenregelungen auf konkrete Einzelfälle. Spätestens bei der Abwägung widerstreitender Rechtspositionen wie dem Urheberrecht auf der einen und dem Recht auf freie Meinungsäußerung auf der anderen Seite aber wird Recht und Rechtsanwendung als soziale Praxis gelebt, die nicht in Softwarecode operationalisierbar ist. Die Ausfüllung rechtlicher Entscheidungsspielräume braucht den Menschen – jedenfalls derzeit noch.“

Zu den Vorwürfen, das Gesetz könnte eine Zensurinfrastruktur etablieren:
„Zensur wird derzeit vor allem als politisch aufgeladener Begriff genutzt. Den sollte man nicht leichtfertig verwenden. Es ist aber wahr, dass der derzeitige Entwurf von Artikel 13 ein Haftungsregime etabliert, das den Plattformanbietern starke Anreize setzt, im Zweifel für den Rechteinhaber und gegen den Nutzer zu entscheiden. Daraus folgt das Risiko eines systematischen ‚Overspills‘ dieser Vorschrift, wenn es um die Löschung von nicht offensichtlich rechtmäßigen Inhalten geht. Je marktmächtiger die Plattformen und je automatisierter ihre Verfahren sind, desto näher rücken die Systeme dann in den Bereich von zentralen ‚Infrastrukturen‘. Gerade kleinere Anbieter haben gegebenenfalls nicht die Ressourcen, eigene Lösungen zu etablieren; eine Folge könnte sein, dass dann die Verfahren der großen Anbieter von den Kleinen zugekauft werden. Am Ende stünde der eine Upload-Filter, der über große Teile unserer öffentlichen Kommunikation entschiede.“

Zur Frage, welche Folgen Artikel 11 für den Journalismus haben könnte:
„Die Aussicht auf neue Lizenzeinnahmen aus dem in Artikel 11 vorgesehenen Leistungsschutzrecht ist für publizistische Unternehmen positiv, insbesondere angesichts der schwierigen ökonomischen Aussichten für klassischen Journalismus. Der Entwurf sieht zudem ausdrücklich vor, dass die Urheberinnen und Urheber von journalistischen Beiträgen an den Lizenzeinnahmen aus dem Artikel 11 zu beteiligen sind. Beides wären für frei verfügbaren Journalismus gute Entwicklungen. Allerdings zeigt die Erfahrung aus Deutschland, dass das Interesse an der Monetarisierung des Leistungsschutzrechts im Widerspruch zum Interesse der Verlage an einer möglichst breiten Auffindbarkeit steht: Statt bei den betroffenen Suchmaschinen und News-Aggregatoren herauszufliegen, erteilen die Verlage lieber kostenlose Lizenzen - das Leistungsschutzrecht läuft dann jedenfalls wirtschaftlich gesehen leer.“

Prof. Dr. Tobias Matzner

Professor für Medien, Algorithmen und Gesellschaft, Universität Paderborn

Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären:
„Es wird auf absehbare Zeit keine Technik geben, die Fälle wie Zitate, Satire, Kritiken und Besprechungen, Nutzungen mit eigener Schöpfungshöhe, wissenschaftliche Nutzungsweisen und so weiter automatisiert korrekt bearbeiten kann. Das sind schwierige Fragen, die immer wieder auch Gerichte und Sachverständige herausfordern.“

Zu den Vorwürfen, das Gesetz könnte eine Zensurinfrastruktur etablieren:
„Wenn alles, was auf Plattformen veröffentlicht wird, vorher gefiltert wird, hat das natürlich Ähnlichkeiten zu einer Zensurinfrastruktur. Für viel gewichtiger halte ich aber den Punkt, dass die geforderten Maßnahmen – wenn überhaupt – nur durch sehr große Anbieter geleistet werden können. Damit wird einer weiteren Konzentration im Internet Vorschub geleistet. Viele kleine Initiativen und Startups werden die Leidtragenden sein, weil sie den Aufwand, den sie nach Artikel 13 leisten müssen, nicht stemmen können. Die vermeintliche Ausnahme für kleine Firmen gilt nur in den ersten drei Jahren. Zudem werden Filter auf Daten von den Rechteinhabern angewiesen sein, auch das werden wiederum nur große Firmen liefern können. Inhalte kleinerer Verlage, Labels und Filmproduzenten müssen damit rechnen, ‚auf Nummer sicher‘ ausgefiltert zu werden.“

Prof. Dr. Florian Gallwitz

Professor für Medieninformatik, Technische Hochschule Nürnberg Georg Simon Ohm

Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären:
„Uploadfilter funktionieren nach dem Prinzip des ‚Media Fingerprinting‘. Musikstücke oder Videofilme werden dabei abschnittweise in sogenannte digitale Fingerabdrücke umgerechnet. Das sind Folgen von Nullen und Einsen, die für den jeweiligen Abschnitt des Mediums charakteristisch sind. Für urheberrechtlich geschützte Werke werden diese digitalen Fingerabdrücke in einer riesigen Datenbank gespeichert. Jedes neu hochgeladene Werk wird nun mit allen in der Datenbank gespeicherten ‚Fingerabdrücken‘ verglichen. Im Falle von Übereinstimmungen wird von einer Urheberrechtsverletzung ausgegangen.“

„Anders als die Wortmeldungen mancher Politiker oder Verwertungsgesellschaften vermuten lassen, ist an keiner Stelle dieses Prozesses ‚künstliche Intelligenz‘ am Werk, die vielleicht sogar zulässige Parodien oder Zitate von unerlaubten Urheberrechtsverletzungen unterscheiden könnte. Es handelt sich um einen schlichten Mustervergleich, der erstaunlich robust funktioniert, häufig sogar zu robust. So wurden von Youtube sogar Aufnahmen einer politischen Demonstration fälschlich als Urheberrechtsverletzung eingestuft, weil dort über einen Lautsprecherwagen Musik abgespielt worden war, deren ‚Fingerabdruck‘ bei Youtube hinterlegt war.“

„Die zuverlässige automatische Erkennung von Parodien oder Zitaten ist dagegen beim heutigen Stand der Technik vollkommen ausgeschlossen und wird dies auf absehbare Zeit auch bleiben. Selbst Experten und unterschiedliche Gerichtsinstanzen kommen in dieser Frage immer wieder zu gegensätzlichen Auffassungen. Beim Einsatz automatischer Uploadfilter kommt es deshalb bei Zitaten und Parodien unweigerlich zum Overblocking, also der Sperrung von zulässigen Inhalten.“

Zu den Vorwürfen, das Gesetz könnte eine Zensurinfrastruktur etablieren:
„Das Urheberrecht wird schon heute immer wieder gerne als Vorwand benutzt, um die unliebsame Veröffentlichung von Dokumenten zu verhindern, so jüngst von der ARD im Fall des für die ARD-Verantwortlichen peinlichen ‚Framing-Manuals‘. Entsprechend ließe sich mit solchen Filtern die Veröffentlichung von unliebsamem Audio- oder Videomaterial verhindern. Generell teile ich das Unbehagen vieler Menschen mit der Vorstellung, dass die Veröffentlichung von Dokumenten im Internet praktisch nur noch nach Vorabprüfung durch ein intransparentes Filterprogramm möglich sein könnte.“

Prof. Dr. Tobias Gostomzyk

Professor für Medienrecht, Technische Universität Dortmund

Zur Frage, ob der Einsatz von Upload-Filtern durch die Vorgaben des Gesetzes unumgänglich wäre:
„Artikel 13 der Urheberrechtrichtlinie würde Provider wie YouTube verpflichten, hohe Anstrengungen zu unternehmen, um Urheberrechtsverletzungen von vornherein zu verhindern. Direkt von Upload-Filtern ist allerdings in Artikel 13 nicht die Rede. Dennoch wird jedenfalls bei großen Providern wie eben YouTube der Einsatz technischer Mittel unumgänglich sein. Dort sollen etwa pro Minute 400 Stunden Videomaterial hochgeladen werden. Sie lassen sich kaum händisch prüfen, was im Einzelfall überdies höchst zeitaufwendig sein kann.“

„Artikel 13 würde also zur einer Haftungsverschärfung im Vergleich zur bisherigen Rechtslage führen. Bislang konnten sich Provider wie YouTube auf eine Haftungsprivilegierung stützen. Weiter war eine staatliche Verpflichtung zu allgemeinen Überwachungsmechanismen grundsätzlich ausgeschlossen.“

Zur Frage, ob es andere Möglichkeiten gibt, die Vorgaben der Richtlinie ohne Upload-Filter zu erfüllen:
„Es wäre nach wie vor denkbar, gegen Urheberrechtsverletzungen erst im Nachhinein vorzugehen. Das ist als Rechtskonzeption nicht atypisch. Weiter ließe sich eine Prüfung im Vorhinein auf klare Fälle beschränken, zum Beispiel das unrechtmäßige Hochladen klar abgrenzbarer, weil vollständiger Werke wie etwa ein aktueller Kinofilm oder ein ganzer Musikclip, die von den Rechteinhabern aktiv eingefordert werden müssten. So würden viele durch den jetzigen Wortlaut von Artikel 13 denkbare Kollateralschäden – etwa bei Zitaten oder Satire – wohl weitgehend wegfallen. Auch müssten geeignete Beschwerdeverfahren bei ungerechtfertigter Nicht-Veröffentlichung vorgesehen werden.“

Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären:
„Hier allein auf Upload-Filter zu setzen, birgt ein großes Risiko von Kollateralschäden. Es geht nicht allein um das technische Erkennen von bestimmten Inhalten, sondern auch eine juristische Bewertung dieser Inhalte. Das ist – wie im Übrigen bereits die Debatte um das NetzDG gezeigt hat – im Einzelfall auch rechtlich herausfordernd. So dürften Upload-Filter bislang kaum rechtlich erlaubte Verwendungsformen eigentlich urheberrechtlich geschützter Werke erkennen können. Beispiele hierfür sind die Verwendung urheberechtlich geschützter Werke als Zitate, unter CC-Lizenz oder eben im Rahmen eines satirischen Beitrags.“

Zu den Vorwürfen, das Gesetz könnte eine Zensurinfrastruktur etablieren:
„Artikel 13 bietet zunächst keine Rechtsgrundlage, um unerwünschte Meinungen zu filtern. Inhalte würden nicht nach Meinungen gefiltert werden sollen, sondern nach urheberrechtlich geschützten Werken. Dennoch kann es bei einer solchen Vorfilterung nach urheberrechtlichen Kriterien zu einem Verlust an Meinungsvielfalt kommen, weil – wie beschrieben – Beiträge nicht veröffentlicht werden, etwa bei Zitaten oder Satire. Artikel 13 bietet also ein hohes Risiko für Kollateralschäden.“

Prof. Dr. Andreas Hotho

Leiter der Data Mining und Information Retrieval Group, Institut für Informatik, Julius-Maximilians-Universität Würzburg

Zur Frage, ob es andere Möglichkeiten gibt, die Vorgaben der Richtlinie ohne Upload-Filter zu erfüllen:
„Ich sehe hier keine anderen Möglichkeiten, da man irgendwann die Inhalte prüfen muss, wenn man dafür haftet. Es ist nur die Frage, wer prüft.“

Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären:
„In einfachen Fällen funktionieren Filter heute gut, aber bei Satire ist mir kein funktionierender Filter bekannt. Allerdings muss man anmerken, dass heutzutage nicht mehr mit einfachen Wortlisten, sondern mit Machine Learning Ansätzen gearbeitet wird, so dass die Filter technisch auch nicht so schlecht sind, wie man unterstellt.“

„Allerdings frage ich mich, warum man den Aufwand für das Filtern nicht auf die Rechteinhaber verschiebt. Diese fordern doch entsprechende Maßnahmen, also sollten sie auch den Aufwand für das Filtern haben und die Entscheidung treffen, ob und vor allem warum ein Werk urheberrechtlich geschützt ist. Das würde die Kosten für die Filter nicht auf den Plattformanbieter abwälzen und auch kleineren Plattformbetreibern eine Überlebenschance bieten. Wichtig ist allerdings, dass es eine Begründung für die Filterung gibt, so dass eine entsprechende Transparenz sichergestellt wird. Diese könnte man veröffentlichen und so auch möglichen Zensurvorwürfen vorbeugen.“

„Ich frage mich auch, was passiert, wenn der Filter eher schlecht funktioniert. Haftet der Plattformbetreiber dann auch? In jedem Fall wird es einen Weg am Filter vorbei geben und ich frage mich, ob die Plattformen dann wirklich haftbar gemacht werden.“

Zu den Vorwürfen, das Gesetz könnte eine Zensurinfrastruktur etablieren:
„Diese sind nicht völlig von der Hand zu weisen. Sollten Filter ohne unabhängige Kontrolle eingesetzt werden, dann kann man nicht nur nach urheberrechtlich geschütztem Material suchen und dieses filtern, sondern auch nach jedem möglichen Beitrag, und so zensieren, da ja dann eine entsprechende Infrastruktur vorhanden wäre.“

„Allerdings befinden wir uns ja schon heute in einer ähnlichen Situation. Sollte Google heute eine Seite zensieren wollen, so würde dies auch nicht weiter auffallen. Zwar wäre sie weiter erreichbar, aber wenn sie niemand findet, ist sie faktisch nicht vorhanden. Gleiches gilt im Grunde für die alternativen Suchmaschinen. Diese stellen heute den Zugang zur Information an zentraler Stelle sicher und Ergebnisse können leicht manipuliert werden. Aus diesem Grund ist auch klar, warum sowohl Russland als auch China eine eigene Suchmaschine betreiben. Filter in anderen großen Plattformen außerhalb der Suchmaschinen würden die Informationskontrolle nur weiter perfektionieren.“

Prof. Dr. Marcus Liwicki

Leiter der MindGarage, Technische Universität Kaiserslautern, und Chair of the Machine Learning Group, Lulea University of Technology, Schweden

„Das neue Gesetz ist allgemein schwer umzusetzen und es ist unfair, die Last der Überprüfung auf die Plattformen abzuwälzen. Die EU oder die Staaten müssten einen kostenfreien Filterservice anbieten, damit klar definiert ist, was zu filtern ist (in welcher Länge, ab wann handelt es sich um eine Parodie und so weiter). Diesen könnten dann alle Plattformen (auch kleinere) direkt nutzen. Durch die aktuelle Formulierung sind auch viele Schlupflöcher entstanden.“

„Um die Unmöglichkeit und Unfairness des Gesetzes zu verdeutlichen, erlaube ich mir folgenden Vergleich: Flohmärkte müssten in Zukunft alle verkauften Bilder, Filme und Tonträger überprüfen, ob es sich dabei wirklich um Originale handelt und nicht um illegale Kopien. Oder Telefonanbieter müssen alle Telefonate überprüfen, ob bei Konferenzschaltungen mit mehr als X Teilnehmern nicht urheberrechtlich geschützte Inhalte übertragen werden. Ich denke die Absurdität (und möglichen Folgen) dieser Gesetzesvorschläge ist offensichtlich.“

Zur Frage, ob der Einsatz von Upload-Filtern durch die Vorgaben des Gesetzes unumgänglich wäre und welche Alternativen es geben könnte:
„Angenommen, es gäbe tatsächlich sehr gute Online-Filter, die zuverlässig sind. Um das Gesetz einzuhalten, wäre es womöglich die einzige Alternative, Filter anzuwenden. Jedoch kann man sich auch vorstellen, dass durch genügend Aufklärung des Publikums eine gesellschaftliche ‚Vernunft‘ entsteht, die das Hochladen unzulässigen Materials eindämmt. Als weitere Möglichkeit kann ich mir vorstellen, dass Software beim Erstellen von Videos automatisch die Quellen der verwendeten Inhalte mitloggt und entsprechende Warnungen ausgibt, wenn es gesetzeswidrig werden könnte.“

Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären:
„Kurz gesagt: Nein, sie sind hier nicht zuverlässig! Und in schwierigen Fällen führen auch Expertenmeinungen verschiedener Personen nicht zum selben Resultat. Es ist ständig nötig, bessere Methoden zu erforschen, denn vorsätzliche ‚Angriffe‘ werden immer ausgereifter. Es ist folglich besser, konzentrierte Gelder in Forschung besserer Filtermethoden (und Datenbanken) zu investieren, statt die Last auf die Schultern der einzelnen Anbieter zu verteilen, die dann aus Kostengründen weniger gute Filter anwenden.“

Prof. Dr. Tobias Keber

Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien, Stuttgart

„Ich glaube nicht, dass das Reformpaket im nunmehr letzten Verfahrensschritt noch einmal gekippt wird. Angesichts der drohenden Diskontinuität und der Europawahl im Mai würde ein Nein die gesamte Arbeit (des Trilogs) zunichtemachen.“

Zur Frage, ob der Einsatz von Upload-Filtern durch die Vorgaben des Gesetzes unumgänglich wäre:
„Zunächst bedient sich der Richtlinientext nicht ausdrücklich der Begrifflichkeit des ‚Uploadfilters‘. Die Rede ist von ‚best efforts to ensure the unavailability of specific works‘. Die größtmöglichen Bemühungen (best efforts) müssen ‚in accordance with high industry standards of professional diligence‘ erfolgen. Hier dachte man offensichtlich an Systeme wie ‚Content-ID‘ von YouTube, in dessen Entwicklung Google einen dreistelligen Millionenbetrag investiert hat. Der Sache nach geht es also sehr wohl um Uploadfilter.“

„Ohne Filter kommen zunächst die Unternehmen beziehungsweise Diensteanbieter aus, die vom Anwendungsbereich der Vorschrift ausgenommen sind. Das sind nach der neu in den finalen Text aufgenommenen Bereichsausnahme junge Startups (weniger als drei Jahre auf dem Markt), deren Jahresumsatz unter 10 Millionen Euro liegt. Hier gilt dann aber gleich eine Rückausnahme: Wenn diese Unternehmen im Monat auf über 5 Millionen Besucher kommen, dann sollen auch sie ‚best efforts‘ unternehmen, um weitere Uploads angezeigter Werke zu verhindern.“

„Nicht filtern müssten ferner diejenigen Betreiber von Plattformen mit nutzergenerierten Inhalten (Content Sharing Service Provider, OSSP), die umfassend zur Darstellung der Inhalte berechtigt sind, was insbesondere durch Lizenzvereinbarungen mit den Rechteinhabern möglich ist. Also: Wenn alles, wirklich alles lizenziert ist, ist alles gut. Praktisch ist es aber nahezu unmöglich, mit jedem denkbaren Rechteinhaber für jeden denkbaren Inhalt einen Lizenzvertrag abzuschließen. Damit dürfte für die die meisten OSSP die Implementierung von Filtern künftig die Regel sein. Im Richtlinientext bemüht man sich dann bemerkenswerterweise mehrfach um den Hinweis, dass damit keine proaktive Überprüfungspflicht der Inhalte (‚general monitoring obligation‘) verbunden sein soll. Wie ein solches ‚Schwimmen ohne nass zu werden‘ praktisch aussehen soll, ist mir nicht klar.“

Zur Frage, ob automatische Filter in schwierigen Fällen wie zum Beispiel bei satirischen Beiträgen überhaupt zuverlässig beurteilen können, ob eine Urheberrechtsverletzung vorliegt:
„Das können sie nach meiner Ansicht ganz eindeutig nicht. Systeme und ihre Algorithmen sind nur sehr bedingt in der Lage, Kontext (zutreffend) zu erkennen. Nehmen Sie Facebooks ‚nudity detection algorithm‘, der zwar immer wieder verbessert wurde, der aber noch immer Schwierigkeiten damit hat, Nacktheit im künstlerischen Kontext sachgerecht zu adressieren. Und dabei geht es hier nur um Fotos beziehungsweise Abbildungen. Im Urheberrecht geht es um eine Vielzahl ganz verschiedener Werke, das heißt um Text, Bilder, audiovisuelle Inhalte, Computerprogramme oder Werke der Tanzkunst. Dass ein Algorithmus diesbezüglich alle erdenklichen Formen und Kontexte in Kritik, Satire oder Zitat erkennen kann, halte ich für absolut ausgeschlossen. Das bedarf der Einschätzung von Menschen und das ist auch gut so.“

Zu den Vorwürfen, das Gesetz könnte eine Zensurinfrastruktur etablieren:
„Das ist in der netzpolitischen Debatte ein gut bekanntes, wiederkehrendes Argument. Aus juristischer Perspektive muss man zunächst darauf hinweisen, dass der rechtliche Zensurbegriff ein staatliches Handeln im Vorfeld einer Veröffentlichung erfordert, was bei den mit der Urheberrechtsrichtlinie adressierten privaten Unternehmen nicht der Fall ist. Trotzdem und angesichts der enormen (wirtschaftlichen) Macht der betroffenen Unternehmen ist das Zensurargument nicht gänzlich aus der Luft gegriffen. Das Argument hat Tradition (es spielte beispielsweise eine wichtige Rolle in der Diskussion um das Zugangserschwerungsgesetz 2010, dass später tatsächlich wieder gekippt wurde), zuletzt im Zusammenhang mit dem Netzwerkdurchsetzungsgesetz (NetzDG). Hier muss man aber sehen, dass dem NetzDG Situationen zu Grunde liegen, in denen im Nachhinein Beschwerden wegen illegalen Inhalten gemanagt werden müssen. Bei der Urheberrechtsrichtlinie geht es um proaktive Handlungen, um Rechtsverletzungen erst gar nicht entstehen zu lassen. Technisch lassen sich Uploadfilter auch für die Selektion anderer Inhalte einsetzen, etwa für mutmaßlich terroristische Inhalte im Internet und in diesem Zusammenhang werden sie aktuell auf EU-Ebene auch ebenso diskutiert.“

Zur Frage, welche Folgen Artikel 11 für den Journalismus haben könnte:
„Im finalen Text ist eine Linksteuer nicht (mehr) enthalten (‚shall not apply to acts of hyperlinking‘), es geht um ein Konzept nach Vorbild des deutschen Leistungsschutzrechts für Presseverleger. Mit den Regelungen in Artikel 11 wäre es aber lizenzpflichtig, einen (auch nur kurzen) Auszug eines Presseartikels im Internet zu teilen. Für sehr kurze Artikel sowie einzelne Worte soll das nicht gelten, aber was ist schon sehr kurz? Begrifflich hinreichend klar determiniert ist die Norm meiner Ansicht nach nicht. Dazu kommt, das man sich schon die Frage stellen muss, ob ein Konzept, dass in Spanien (Google News wurde dort eingestellt) und Deutschland (hier hat man aus Angst, von Google ausgelistet zu werden, Gratislizenzen vergeben) nachweislich nicht funktioniert hat, auf unionsrechtlicher Ebene nun (doch) funktionieren soll.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Florian Gallwitz: „Ich kann bei mir in dieser Frage keinen Interessenkonflikt erkennen.“

Alle anderen: Keine Angaben erhalten. 

Weitere Recherchequellen

Ein Überblick über die Diskussion zur Urheberrechtsreform, u.a. mit gebündelten Statements und einer Timeline.  Von einem Team der School of Law der Universität Glasgow um den Professor für Intellectual Property Law Martin Kretschmer.