Warum Uploadfilter in der Urheberrechtsrichtlinie verhindert werden müssen

Seit 2013 wird in der Europäischen Union über eine Reform des Urheberrechts verhandelt. Das derzeit geltende Urheberrecht der EU stammt im Wesentlichen aus dem Jahr 2001. Seither hat sich der Umgang mit urheberechtlich geschützten Inhalten im Internet stark verändert. Plattformen, auf denen nutzergenerierte Inhalte verbreitet werden, sind prägend für die digitale Medienlandschaft. Eine Reform des Urheberrechts ist deshalb dringend nötig. Der aktuelle Richtlinienentwurf, der Ergebnis der Trilogverhandlungen ist und über den das Europäische Parlament am Dienstag abstimmen wird, wird den Anforderungen der digitalisierten Welt an das Urheberrecht aber nicht gerecht. Mit der Abkehr vom Providerprivileg wird das Modell der user-generated-content-Plattform grundsätzlich in Frage gestellt. Das Haftungsregime des Entwurfs zieht zwangsläufig die Einrichtung von Algorithmen nach sich, die Inhalte beim Hochladen auf Urheberrechtsverletzungen überprüfen – die umstrittenen Uploadfilter. Diese Instrumente werden die Kunst-, Presse-, Meinungs- und Informationsfreiheit stark beschränken. Sie sind schon aus technischer Sicht ungeeignet, um legale Uploads von illegalen zu unterscheiden. Darüber hinaus wird mit dem Entwurf der weiteren Monopolisierung der Digitalwirtschaft Vorschub geleistet.

Dieser Beitrag erläutert, wie Plattformbetreibende unter dem Regime des Artikel 13 (nach aktueller Nummerierung Artikel 17) für hochgeladene Inhalte haften und welche Probleme sich daraus für Freiheitsrechte, die mediale Vielfalt des Internets und den Wettbewerb zwischen Plattformen ergeben.

Artikel 13 (17): Uploadfilter

Die Abkehr vom Providerprivileg

Bisher gilt in der europäischen Union der Grundsatz, dass Plattformbetreibende nicht für Urheberrechtsverletzungen durch Nutzer haften, es sei denn, sie wurden darauf aufmerksam gemacht, dass ein Inhalte rechtswidrig hochgeladen wurde (Providerprivileg). Geregelt ist dieses Haftungsprinzip in der E-Commerce-Richtline (2000/31/EG). Urheberrechtsverletzungen wird mit dem Notice-and-Take-down-Verfahren begegnet. Das bedeutet: Die Rechteinhaber*in wendet sich an die Plattform und teilt mit, dass ein Inhalt ohne Erlaubnis hochgeladen wurde. Daraufhin sperrt die Plattform den Inhalt. Davon weicht der Entwurf der neuen Urheberrechtsrichtlinie grundlegend ab: Artikel 13 (17) Absatz 3 normiert, dass die Betreibenden grundsätzlich für die Inhalte haften, als hätten sie sie selbst hochgeladen. Das widerspricht dem Prinzip der user-generated-content-Plattform fundamental.

„Nimmt ein Diensteanbieter für das Teilen von Online-Inhalten eine Handlung der öffentlichen Wiedergabe oder der öffentlichen Zugänglichmachung unter den in diesem Artikel festgelegten Bedingungen vor, so findet die Beschränkung der Verantwortlichkeit nach Artikel 14 Absatz 1 der Richtlinie 2000/31/EG auf die in diesem Artikel beschriebenen Situationen keine Anwendung. […]“

Neue Kategorie: Diensteanbieter für das Teilen von Online-Inhalten

Der umstrittene Artikel 13 gilt für „online content sharing service provider“. Artikel 2 Absatz 6 des Entwurfs definiert, was unter diesem Begriff zu verstehen ist:

„6. „Diensteanbieter für das Teilen von Online-Inhalten“ bezeichnet den Anbieter eines Dienstes der Informationsgesellschaft, bei dem der Hauptzweck bzw. einer der Hauptzwecke darin besteht, eine große Menge an von seinen Nutzern hochgeladenen, urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen zu speichern und der Öffentlichkeit Zugang hierzu zu verschaffen, wobei dieser Anbieter diese Inhalte organisiert und zum Zwecke der Gewinnerzielung bewirbt.

Urheberrechtlich geschützt sind auch die Werke der Nutzer*innen, nicht etwa nur solche anerkannter Künstler*innen, also auch Fotos, Videos, Texte, Audiodateien und andere Inhalte, die von Privatpersonen hergestellt und hochgeladen werden. Das Kriterium grenzt die Provider nur von solchen ab, die gemeinfreie Werke bereitstellen.

Das Kriterium „zum Zwecke der Gewinnerzielung“ kann eine Plattform schneller als im alltäglichen Wortverständnis erfüllen: Eine Vielzahl von Plattformen schalten etwa Werbung, um die Kosten für den Betrieb einzuholen. Wenn dabei regelmäßig geringe Gewinne entstehen, haben die Betreiber*innen bereits zu befürchten, in den Anwendungsbereich zu fallen. Einen Rechtsstreit mit unsicherem Ausgang über diese Frage können sich gerade wenig profitable Plattformen nicht leisten.

Betroffen sein können also Audio- und Video-Sharing-Portale wie Vimeo, Social-Media-Plattformen wie Mastodon oder Foren.

Vom Anwendungsbereich ausgenommen sind nicht gewinnorientierte Online-Enzyklopädien, nicht gewinnorientierte Bildungs- und Wissenschaftsarchive, Plattformen, die der Entwicklung und dem Teilen von Open Source Software dienen, Online-Marktplätze, Business-to-business-Cloud-Dienste und Cloud-Dienste, bei denen Benutzer Inhalte für die eigene Verwendung hochladen können.

Während in der öffentlichen Debatte viel über Youtube gesprochen wird, zeigt die Weite des Anwendungsbereiche, dass eine Vielzahl von Diensten betroffen ist, für die die Vorschriften gänzlich unpraktikabel sind.

Die Verpflichtung zum Lizenzerwerb

Artikel 13 (17) Absatz 1 schafft die neue Verpflichtung, eine Autorisierung der Rechteinhaber einzuholen.

„Die Mitgliedstaaten sehen vor, dass ein Diensteanbieter für das Teilen von Online-Inhalten eine Handlung der öffentlichen Wiedergabe oder eine Handlung der öffentlichen Zugänglichmachung für die Zwecke dieser Richtlinie vornimmt, wenn er der Öffentlichkeit Zugang zu von seinen Nutzern hochgeladenen urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen verschafft. Ein Diensteanbieter für das Teilen von Online-Inhalten muss deshalb die Erlaubnis von den in Artikel 3 Absatz 1 und 2 der Richtlinie 2001/29/EG genannten Rechteinhabern einholen, etwa durch den Abschluss einer Lizenzvereinbarung, damit er Werke oder sonstige Schutzgegenstände öffentlich wiedergeben oder öffentlich zugänglich machen darf.

Demnach müssen Plattformen sicherstellen, dass so viele Rechteinhaber*innen wie möglich die Veröffentlichung auf der Plattform genehmigen. Sie müssen also proaktiv in Lizenzverhandlungen mit diesen Akteur*innen treten. Praktisch wird das auf Vereinbarungen mit den Verwertungsgesellschaften hinauslaufen. Dieses Konzept mag etwa für die Verbreitung von Musik auf Youtube nicht ungeeignet sein. Beispielsweise erhalten auch Radiosender von der GEMA und der GVL pauschal Lizenzen für das Weltrepertoire. Auf viele Kategorien von Inhalten lässt es sich aber kaum anwenden: So lizenziert keine Verwertungsgesellschaft aktuelle Kinofilme oder das Weltrepertoire an Fotos. Woher sollen Plattformen gar Lizenzen für geleakte Dokumente erhalten?

Alle Anstrengungen: Uploadfilter

Der Begriff „Uploadfilter“ kommt im Text der Verordnung nicht vor. Nachdem im ursprünglichen Entwurf von 2016 noch von „wirksame[n] Inhaltserkennungstechniken“ die Rede war, wurden alle Begrifflichkeiten, die mit Uploadfiltern assoziiert werden können, aus dem Text gestrichen. Die verpflichtende Einführung von Uploadfiltern ergibt sich aber aus den Anforderungen, denen Plattformen genügen müssen, um eine Haftung für Inhalte, für die keine Lizenz vorliegt, auszuschließen:

„(4) Wird die Erlaubnis nicht erteilt, so ist der Diensteanbieter für das Teilen von Online-Inhalten für nicht erlaubte Handlungen der öffentlichen Wiedergabe, einschließlich der öffentlichen Zugänglichmachung, urheberrechtlich geschützter Werke oder sonstiger Schutzgegenstände verantwortlich, es sei denn, der Anbieter dieser Dienste erbringt den Nachweis, dass er

a) alle Anstrengungen unternommen hat, um die Erlaubnis einzuholen; und

b) nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen hat, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind; und in jedem Fall

c) nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt hat, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von seinen Internetseiten zu entfernen, und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern.“

Wird ein Inhalt hochgeladen, für den keine Autorisierung des Rechteinhabers vorliegt, so kann die Plattform der Haftung entgehen, wenn sie diesen drei Anforderungen genüge getan hat. Insbesondere muss sie alle Anstrengungen unternehmen, um sicherzustellen, dass bestimmte Werke, die zuvor mit Erkennungsinformationen vom Rechteinhaber gemeldet wurden, nicht verfügbar sind. Die drei Voraussetzungen müssen kumulativ erfüllt werden, das heißt, wenn auch nur eine davon nicht vorliegt, haftet die Plattform für die Urheberrechtsverletzung.

Sonderregelungen gelten für Provider, die seit weniger als drei Jahren in der Union Dienste anbieten, deren Jahresumsatz gleichzeitig unter zehn Millionen Euro liegt und die im vergangenen Jahr weniger als fünf Millionen Besucher im Monat hatten. Sie müssen den Anforderungen unter (b) nicht genügen.

Auf Youtube werden pro Minute 450 Stunden Videomaterial hochgeladen. Aus technischer Sicht kann unter „alle Anstrengungen“ deshalb nichts anderes zu verstehen sein als die Einrichtung automatischer Filtersysteme, die urheberrechtlich geschützte Inhalte erkennen und blockieren sollen. Solche Filter werden heute bereits von einigen Plattformen angewendet, ohne dass eine gesetzliche Verpflichtung bestünde. Der bekannteste ist Content-ID von Youtube. Wer sicherstellen möchte, dass seine urheberrechtlich geschützten Werke nicht von Unbefugten über diese Plattformen verbreitet werden, kann Erkennungsinformationen (Fingerprints) zur Überprüfung an Youtube melden. Diese werden dann mit den Fingerprints der hochgeladenen Werke abgeglichen. In der Praxis wird aufwendig entwickelte, „intelligente“ Software verwendet, die mit neuronalen Netzen (deep learning) arbeitet, um Inhalte wiederzuerkennen.

Die Verpflichtung zur Verwendung einer solchen Technologie bringt eine Vielzahl von Problemen mit sich:

1. Uploadfilter bedrohen Freiheitsrechte

Automatische Filtersysteme können nicht entscheiden, wann eine Urheberrechtsverletzung vorliegt. Sie können nicht sicher beurteilen, ob ein Inhalt überhaupt ein menschliches Werk ist. So wurde bereits Katzenschnurren von Filtern mit geschützter Musik verwechselt. Parodien werden nicht als Weiterverarbeitungen erkannt und als Beifang blockiert. Gleiches gilt für erlaubte Zitate. Zwar statuiert Absatz 7, dass die Möglichkeiten der hochladenden Nutzer*innen zu Zitaten, Kritik, Rezensionen, Karikaturen, Parodien und Persiflagen erhalten bleiben sollen:

„(7) Die Zusammenarbeit zwischen den Diensteanbietern für das Teilen von Online-Inhalten und den Rechteinhabern darf nicht bewirken, dass von Nutzern hochgeladene Werke oder sonstige Schutzgegenstände, bei denen kein Verstoß gegen das Urheberrecht oder verwandte Schutzrechte vorliegt, nicht verfügbar sind, und zwar auch dann, wenn die Nutzung eines Werkes oder sonstigen Schutzgegenstandes im Rahmen einer Ausnahme oder Beschränkung erlaubt ist. Die Mitgliedstaaten stellen sicher, dass sich alle Nutzer, die nutzergenerierte Inhalte auf Diensten für das Teilen von Online-Inhalten hochladen oder auf Diensten für das Teilen von Online-Inhalten zugänglich machen, in jedem Mitgliedstaat auf die jede der folgenden Ausnahmen oder Beschränkungen stützen können:

a) Zitate, Kritik und Rezensionen;

b) Nutzung zum Zwecke von Karikaturen, Parodien oder Pastiches.

Technische Möglichkeiten, Urheberrechtsverletzungen zuversichtlich von solchen Werken abzugrenzen, existieren aber nicht. Julia Reda, Abgeordnete im Europäischen Parlament für die Piratenpartei, hat in ihrem Blog eine Sammlung fehlerhafter Filterungen zusammen gestellt. Beispielweise wurde ein Video einer urheberrechtlichen Vorlesung der Harvard Law School blockiert, in der legitimerweise zu Anschauungszwecken kurze Songausschnitte verwendet wurden. Gerade medienkritische Onlineformate arbeiten häufig mit entlarvenden Sendungsausschnitten, wie das Beispiel einer Montage des Blogs Kobuk zeigt. Solche Beiträge werden über Plattformen kaum noch zu verbreiten sein. Immer wieder werden rechtmäßig hochgeladene Aufnahmen von Musikstücken, deren Autoren schon mehr als 70 Jahre verstorben sind, – nach dieser Zeit erlischt das Urheberrecht – gesperrt. Dazu kann es kommen, wenn etwa ein Label eine bestimmte Aufnahme als urheberrechtlich geschützt gemeldet hat und der Uploadfilter nicht zwischen unterschiedlichen Aufnahmen desselben Musikstücks von verschiedenen Interpreten unterscheiden kann. Wie Martin Kretschmer, Professor für Urheberrecht an der Universität Glasgow erläutert, kann mit den Filtern auch der Upload von kompromittierenden Dokumenten, an denen ein öffentliches Interesse besteht, vom Urheber verhindert werden.

Nun könnte man meinen, in Fällen, in denen der Filter einen Inhalt fehlerhaft blockiert, könnten die wahren Rechteinhaber sich rasch mit einer Beschwerde an die Plattformbetreiber wenden und ihren Inhalt ohne Verluste wieder sichtbar machen. Dieses Argument lässt aber die Logik viraler Verbreitung außer Acht, wie ein Fall der Organisation Pinkstinks, die sich gegen Sexismus und Homophobie einsetzt, deutlich macht: Sie hatten via Youtube das von ihnen gedrehte Video „Not Heidi‘s Girl“ verbreitet, das sich kritisch mit der Fernsehsendung Germany‘s Next Topmodel auseinandersetzt. Nachdem das Video bei RTL im Frühstücksfernsehen lief, legte RTL diese Ausstrahlung bei Youtube als urheberrechtlich geschütztes Material vor, woraufhin Youtube den ursprünglichen Clip von Pinkstinks – die ja die tatsächlichen Urheber*innen waren – wegen Urheberrechtsverletzung blockte. Zwar aktivierte Youtube das Video auf Beschwerde von Pinkstinks wieder – die 700 000 Klicks, die das Video zuvor aufwies und die es vielleicht ermöglicht hätten, ein Millionenpublikum zu erreichen, waren jedoch verloren. Eine Entschädigung für die durch RTLs missbräuchliche Meldung entgangene Aufmerksamkeit hat die Gruppe nicht erhalten. Während in diesem Fall die tatsächliche Urheberschaft nicht strittig war, kann es mitunter für die Uploader*in auch recht problematisch sein, der Plattform glaubhaft zu machen, dass sie zur Verbreitung eines Inhalts berechtigt ist.

Meinungs-, Presse-, Kunst- und Informationsfreiheit sind dadurch stark bedroht: Da im Falle einer Urheberrechtsverletzung das Risiko einer Klage über den Plattformen schwebt, sie hingegen für den Fall, dass Inhalte fälschlich gelöscht werden, keine Konsequenzen zu befürchten haben, ist zu erwarten, dass es zu massivem Overblocking kommt. Das meint, dass die Plattformen aus Vorsicht deutlich mehr Inhalte blockieren als eigentlich nötig. Gerade kleinere Anbieter fürchten Rechtsstreitigkeiten und können es sich kaum leisten, es darauf ankommen zu lassen.

2. Artikel 13 schadet Wettbewerb und Datenschutz

Die Einrichtung von Uploadfiltern ist technisch sehr anspruchsvoll. Youtube hat nach eigenen Angaben 100 Millionen US-Dollar in Content-ID, den leistungsfähigsten Uploadfilter der Welt, investiert. Kleinere und mittlere Plattformen können einen solchen Aufwand nicht betreiben und müssten diese Leistung wahrscheinlich von Youtube einkaufen. Das stärkt die Marktposition der ohnehin schon monopolähnlichen Plattformen weiter und stellt daher auch unter wettbewerbspolitischen Gesichtspunkten ein Problem dar. Viele Plattformen warnen derzeit davor, dass sie sich unter dem Regime von Artikel 13 gezwungen sähen, ihren Betrieb einzustellen, so etwa die Initiative Foren gegen Uploadfilter.

Daraus folgt auch ein wesentliches Datenschutzproblem, auf das der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, in einer Presssemitteilung hingewiesen hat: Würde eine Vielzahl von Plattformen die Inhaltsfilterung – so wie es heute schon bei Analysetools gehandhabt wird – an Oligopol-Konzerne auslagern, so würden auch all diese Werkinformationen, möglicherweise mit Daten, die Rückschlüsse auf die hochladende Person zulassen, dort konzentriert werden. Es könnte dann ein guter Teil des ganzen Internettraffics auch über diese Konzerne laufen.

Die Beurteilung, wann eine Urheberrechtsverletzung vorliegt und wann nicht, sollte nicht von Privaten und schon gar nicht von Oligopolen getroffen werden. Auch wenn die Plattformen sich derzeit gegen diese Kontrollverpflichtung wehren, sollte nicht außer Acht gelassen werden, dass ihnen damit eine nicht unerhebliche Machtposition übertragen wird. Die Entscheidungen der Plattformen und der Algorithmen sind nur sehr schwer nachzuvollziehen. Eine demokratische oder juristische Kontrolle der Filter, etwa darauf hin, ob sie diskriminierende Wirkungen entfalten, ist kaum möglich.

3. Eine Zensur findet nicht statt? Vereinbarkeit mit Art. 5 GG

Unter Rechtswissenschaftler*innen ist umstritten, ob staatlich angeordnete Uploadfilter unter den Begriff der Zensur fallen. In Artikel 5 Absatz 1 Satz 2 des Grundgesetzes heißt es „Eine Zensur findet nicht statt.“ Es handelt sich um eine absolute Eingriffsschranke: Während Grundrechte grundsätzlich eingeschränkt werden dürfen, wenn ein legitimer Zweck vorliegt und der Eingriff verhältnismäßig ist, ist eine Zensur immer unverhältnismäßig und damit verfassungswidrig. Was aber ist unter Zensur zu verstehen?

Umfasst ist nur die Vorzensur, das heißt, dass Meinungsäußerungen nur nach vorheriger behördlicher Kontrolle zugelassen werden (Starck, in: Mangoldt/Klein/Starck, Grundgesetz, 5. Auflage 2005. Art. 5 Rn. 170). Grundrechte sind als Abwehrrechte der Bürger*innen gegen den Staat konzipiert. Deshalb wird unter Zensur zunächst die staatliche Kontrolle von Informationen vor deren Publikation verstanden. Mit Artikel 13 würde zwar eine solche Vorkontrolle vorgenommen werden, jedoch nicht von hoheitlichen Stellen selbst, sondern durch Private. Daher meint ein Teil der juristischen Literatur, dass eine solche Filterpflicht keine Zensur sei.

Andererseits wird argumentiert, dass von Privaten unterhaltene Plattformen sich zu bedeutsamen Foren der öffentlichen Meinungsbildung entwickelt haben, weswegen das Zensurverbot grundsätzlich an das veränderte Publikationswesen anzupassen sei (Grabenwarter, in: Maunz/Dürig, Grundgesetzkommentar, 84. EL August 2018, Art. 5 Rn. 119). Wenn Anbieter durch Haftungsregeln zu einzelanlassunabhängigen systematischen Kontrollen und Sperrungen verpflichtet werden, dann käme dies einer Zensur gleich.

Es ist wichtig, sich den Zweck des absoluten Zensurverbots vor Augen zu führen: Das Grundgesetz will jede Möglichkeit zur umfassenden planmäßigen Kontrolle der Kommunikationsinhalte ausschließen. Mögliche Meinungslenkung, eine Lähmung politischen Denkens und voreilendes Anpassungsverhalten der kommunizierenden Bürger*innen sollen ausgeschlossen werden. Meinungslenkung durch Zensur hat sich in der Vergangenheit den technischen Möglichkeiten der Kommunikationsprozesse angepasst: Während etwa die Katholische Kirche bis zur Erfindung des Buchdrucks Nachzensur als ausreichend empfand, führte sie mit Beginn der massenhaften Verbreitung von Druckerzeugnissen die Vorzensur ein (Hoffmann-Riem, in: Kommentar zum Grundgesetz für die Bundesrepublik Deutschland, 3. Auflage 2001, Art 5 Rn. 78). Daran ist abzulesen, dass auch der Zensurbegriff technischen und gesellschaftlichen Veränderungen angepasst werden sollte: Nutzergenerierten Inhalten auf zum Teil monopolartigen Plattformen kommt mittlerweile entscheidende Bedeutung für die Meinungsbildung zu. Der Staat selbst entscheidet zwar nicht im Einzelnen über die Zulässigkeit von Inhalten, ordnet aber die Filterpflicht an. Sind die Filtereinrichtungen einmal geschaffen, so ist – je nach Interessenlage – auch der Kooperation von Plattformbetreibenden mit staatlichen Versuchen, politische unliebsame Beiträge zu unterdrücken, Tür und Tor geöffnet. Dies alles spricht dafür, den Zensurbegriff auf die staatliche Verpflichtung zur anlassunabhängigen Kontrolle sämtlicher Plattforminhalte auszuweiten.

Exkurs: Uploadfilter und Terror Content

Uploadfilter sollen nicht nicht nur den Urheberrechtsschutz stärken, sondern werden auch für einen weitere Anwendungsbereiche diskutiert: Terroristische Online-Inhalte. Die Vorstellung, Terrorpropaganda automatisch löschen oder blockieren zu können, klingt zunächst verlockend. Hier zeigt sich aber ganz besonders die Unfähigkeit der Filtersysteme: Die Plattform Youtube, die sie bereits auf freiwilliger Basis einsetzt, sperrte zehntausende Videos, die Kriegsverbrechen des IS dokumentierten, weil in ihnen IS-Flaggen zu sehen waren.

Nachdem die Innenminister Frankreichs und Deutschlands die EU-Kommission im letzten Jahr aufgefordert hatte, verstärkt gegen Terror-Propaganda im Internet vorzugehen, legte die Kommission im September einen Verordnungsentwurf vor. Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte sollen alle Dienste, die Inhalte von Personen hochladen lassen und sie speichern, um sie Dritten zur Verfügung zu stellen, auf behördliche Anordnung Inhalte binnen einer Stunde löschen. Davon umfasst ist nach dem Kommissionsentwurf jeder Blog mit Kommentarfunktion. Als „terroristisch“ bezeichnet der Entwurf mit der Formulierung „technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten“ auch Berichterstattung von Journalist*innen oder Menschenrechtsorganisationen. Ebenfalls betroffen wäre ein Aufruf zum „Kapern von Luft- und Wasserfahrzeugen oder von anderen öffentlichen Verkehrsmitteln oder Gütertransportmitteln mit dem Ziel, öffentliche Stellen oder eine internationale Organisation rechtswidrig zu einem Tun oder Unterlassen zu zwingen“ – damit könnten in Zukunft auch Aufrufe zu zivilem Ungehorsam entfernt werden. Die breite Definition wurde unter anderem in einem gemeinsamen Bericht des UN-Sonderberichterstatters für Meinungsfreiheit, des UN-Sonderberichterstatters für das Recht auf Privatheit und der UN-Sonderberichterstatterin für den Grundrechtsschutz im Anti-Terror-Kampf scharf kritisiert. Sie erinnern die EU-Institutionen sogar daran, dass auch Inhalte, die den Staat angreifen, schockieren oder stören, vom Recht auf freie Meinungsäußerung umfasst sind:

„The Special Rapporteurs wish to emphasize that the right to freedom of expression extends‘not only to “information” or “ideas”that are favourably received or regarded as inoffensive or as a matter of indifference, but also to those thatoffend, shock or disturbthe State or any sector of the population. Such are the demands of that pluralism, tolerance and broadmindedness without which there is no “democratic society”“.

Neben der Entfernungsanordnung sollen nationale Behörden auch die Möglichkeit haben, Plattformen zur Einrichtung von Uploadfiltern zu verpflichten. Die Verordnung enthält eine ganze Reihe von Ansatzpunkten, die von nationalen Behörden zur Unterdrückung politisch missliebiger Inhalte verwendet werden können. Ganz besonders mangelt es an adäquaten Rechtsschutzmöglichkeiten für die Personen, deren hochgeladener Inhalt blockiert werden soll. So könnte etwa eine polnische Behörde einen Beitrag sperren lassen, der von Deutschland aus auf eine Plattform gestellt wurde. Wollte die hochladende Person sich juristisch dagegen wehren, so müsste sie vor einem polnischen Gericht gegen die Entfernungsanordnung klagen.

Alternativen für die bessere Entlohnung von Kreativen

Es gibt verschiedene Ansätze zur Gewährleistung der gerechten Entlohnung von Kreativen im digitalen Zeitalter. Das Max-Planck-Institut für Innovation und Wettbewerb hat das Modell der erleichterten Lizenzierung vorgeschlagen: Damit ist gemeint, dass – ähnlich wie in Deutschland bei der Privatkopie – die Verbreitung geschützter Inhalte im Internet für nichtkommerzielle Zwecke grundsätzlich erlaubt wird. Im Gegenzug sollen Plattformen eine Vergütung entrichten, die über Verwertungsgesellschaften an die Urheber*innen verteilt wird. Ergänzend soll das Notice-and-take-down-Verfahren harmonisiert und durch ein sogenanntes Counter-notice-Verfahren, das es der hochladenden Person erlaubt, auf die Meldung des Rechteinhabers mit einer Gegendarstellung zu reagieren, ergänzt werden. Ein weiterer Bestandteil ist die Vereinfachung der transeuropäischen Lizenzierungsmechanismen.

Dem ähnelt der Vorschlag der Kulturflatrate. Das meint einen Pauschalbeitrag, der von Internetnutzer*innen entrichtet und an Künstlerinnen verteilt werden soll. Im Gegenzug könnte das Kopieren und die Weitergabe von Werken legalisiert werden.

Uploadfilter sind keineswegs geeignet, einen gerechten Interessenaustausch für die Verbreitung und die Entlohnung von Immaterialgütern im Netz zu schaffen. Notwendig sind sie dafür schon gar nicht.

Comments are closed.