Stellungnahme an den Landtag Schleswig Holstein: Uploadfilter in der Urheberrechtsreform verhindern

Schriftliche Stellungnahme der Digitalen Gesellschaft e.V. an den Innen- und Rechtsausschusses des Schleswig-Holsteinischen Landtags, 26.08.2019

zu den Anträgen

a) Uploadfilter verbieten – Verträge mit Verwertungsgesellschaften schließen
Antrag der Abgeordneten des SSW – Drucksache 19/1403
b) EU-Urheberrechtsrichtlinie ohne Uploadfilter umsetzen
Alternativantrag der Fraktionen von CDU, BÜNDNIS 90/DIE GRÜNEN und FDP – Drucksache 19/1477

Die Digitale Gesellschaft e.V. begrüßt die Initiativen, kritisch Stellung zur europäischen Urheberrechtsreform, insbesondere zu Artikel 17 (vormals 13) zu nehmen und über den Bundesrat auf die Bundesregierung einzuwirken. Zu den problematischsten Regelungen der Reform gehört das Haftungsregime für Plattformbetreibende, das sie zur Einführung von Uploadfiltern zwingt. Die damit einhergehende Vorabkontrolle von Inhalten forciert eine privatisierte Rechtsdurchsetzung und verkehrt das Prinzip der einzelfallbasierten Untersagung rechtswidrig publizierter Inhalte im Nachhinein ins Gegenteil. Dies wird Kunst-, Meinungs- und Informationsfreiheit im Internet beschädigen. Ob eine europarechtskonforme Umsetzung der Richtlinie ohne verpflichtende Implementierung von Uploadfiltern möglich ist, ist zweifelhaft. Die Bundesregierung muss daher, wie in der Protokollerklärung zur Richtlinie in Aussicht gestellt, [1] eine Änderung der Richtlinie auf europäischer Ebene bewirken. Zudem empfehlen wir die Durchführung einer Datenschutz-Folgenabschätzung durch den nationalen Gesetzgeber, da Uploadfilter das Risiko eines umfassenden Trackings von Nutzerinnen und Nutzern bergen und derzeit noch unklar ist, ob und wie die Systeme datenschutzkonform eingesetzt werden können.

1. Zum Antrag: Uploadfilter verbieten – Verträge mit Verwertungsgesellschaften schließen

Es bestehen Zweifel an der Vereinbarkeit einer vom SSW vorgeschlagenen nationalen Untersagung von Uploadfiltern mit der Haftungsregelung aus Artikel 17 Absatz 4 der neuen Urheberrechtsrichtlinie. Absatz 4 lit. b der Richtlinie verlangt von Plattformen die Einhaltung „hoher branchenüblicher Standards“, um die Nichtverfügbarkeit bestimmter Inhalte sicherzustellen. Aufgrund der hohen Uploadzahlen auf großen Plattformen kann dies anders als durch eine automatische Filterung nicht gewährleistet werden. Eine Untersagung automatischer Filter durch den deutschen Gesetzgeber würde dem wohl zuwiderlaufen.

2. Zum Antrag: EU-Urheberrechtsrichtlinie ohne Uploadfilter umsetzen

Bei Uploadfiltern handelt es sich um technische Systeme, die vom Schutzbereich der Meinungs- bzw. Kunstfreiheit erfasste Inhalte vor der Veröffentlichung auf einer Online-Plattform massenhaft einer automatisierten Kontrolle unterziehen. Diese von Privaten ausgeführte Vorabprüfung verkehrt das rechtsstaatliche Prinzip, Meinungsäußerungen nur nach Einzelfallprüfung bei Vorliegen schwerwiegender Gründe einzuschränken, ins Gegenteil. Wir erkennen derzeit keine gesicherte Möglichkeit, die Urheberrechtsrichtlinie ohne eine Verpflichtung zur Filterung von Inhalten umzusetzen. Um Beeinträchtigungen von Meinungs-, Kunst– und Informationsfreiheit zu verhindern und gleichzeitig europaweit einheitliche Haftungsmaßstäbe zu gewährleisten, muss Artikel 17 der Urheberrechtsrichtlinie geändert werden.

a) Uploadfilter

Mit der massenhaften Filterung von Uploads wird eine technische Infrastruktur geschaffen, die dazu geeignet ist, auf Plattformen erscheinende Inhalte umfassend zu kontrollieren. Anders als bisher werden Inhalte nicht nach Erscheinen aufgrund eines Rechtsverstoßes im Einzelfall entfernt, sondern vorab geprüft. Automatische Contenterkennungssysteme, die Inhalte während des Hochladens kontrollieren, dienen neben der Unterbindung von Urheberrechtsverletzungen auch dem Ausschluss von anderen, teils illegalen und teils legalen, aber unerwünschten Inhalten. Die EU-Kommission arbeitet etwa seit 2015 im Rahmen des EU Internet Forum daran, Maßnahmen gegen terroristische Inhalte zu entwickeln. Google, Facebook, Microsoft, Twitter und weitere Onlineplattformen haben daraufhin eine Datenbank mit Erkennungsinformationen von als terroristisch bzw. radikalisierend eingestuften Inhalten gestartet, um deren Wiederauftauchen auf den Plattformen zu verhindern.[2] Die Einstufung erfolgt vielfach nicht aufgrund gesetzlicher Vorgaben, sondern anhand der Nutzungsbedingungen der Anbieter. So werden Plattformen und ihre Dienstleister nicht nur zu privaten Rechtsdurchsetzern gemacht, sondern auch die freie Meinungsäußerung wird durch intransparente Datenbanken ohne demokratische oder gerichtliche Kontrolle bedroht.

Erschwerend kommt die Fehleranfälligkeit von Uploadfiltern hinzu. Automatische Filtersysteme können ein bestimmtes Musikstück wiedererkennen. Sie können jedoch nicht entscheiden, wann eine Urheberrechtsverletzung vorliegt. Etwa Parodien werden nicht als solche identifiziert und als Beifang blockiert. Gleiches gilt für erlaubte Zitate. Wir befürchten aufgrund dieser Unsicherheiten ein massives Overblocking seitens der Plattformen. Zudem können kleine und mittlere Anbieter komplexe Filtermechanismen nicht selbst bereitstellen, sodass sie ihre Dienste entweder einstellen oder aber entsprechende Services größerer Internetkonzerne einkaufen müssen, was deren Marktmacht weiter stärkt und ihnen unter Umständen Zugriff auf personenbezogene Daten von Plattformnutzenden ermöglichen kann.

b) Europarechtskonforme Umsetzung ohne Uploadfilter?

Laut Pressemitteilung vom 15.03.2019 plant die CDU eine Umsetzung der Urheberrechtsreform ohne Verpflichtung zu Uploadfiltern.[3] Mit der Maxime „Bezahlen statt Blocken“ knüpft die Partei an Vorschläge an, für die sich im Rahmen des EU-Gesetzgebungsverfahrens viele Kritikerinnen und Kritiker von Uploadfiltern ausgesprochen haben. Diese Vorschläge wurden in der Richtlinie jedoch nicht aufgegriffen. Mittels gesetzlich verpflichtend ausgestalteten Pauschallizenzen und zeitlichen Begrenzungen soll die Filterpflicht vollständig entfallen. Dies soll in Form einer Schrankenregelung umgesetzt werden.

Dem steht entgegen, dass die Info-Soc-Richtlinie sowie die neue Urheberrechtsrichtlinie abschließende Regelungen über mögliche Schranken treffen.[4] Dies bestätigt auch das Urteil des EuGH vom 29. Juli 2019 (C‑476/17), wonach nationalstaatliche Ausnahmen oder Beschränkungen der Rechte von Urheberinnen und Urhebern, die im Unionsrecht nicht vorgesehen sind, unzulässig sind. Auch die Systematik des Artikel 17 spricht laut Gerald Spindler, Direktor des Instituts für Wirtschafts- und Medienrecht an der Universität Göttingen, gegen eine solche Lösung, da Absatz 4 nur für Fälle Anwendung findet, in denen gerade keine Lizenz vorliegt.[5] Caroline Volkmann, Professorin für Informationsrecht an der Hochschule Darmstadt, bezeichnet Uploadfilter in der nationalen Umsetzung als „nicht verhinderbar“ und geht davon aus, dass sich eine Plattform bei Veröffentlichung eines nichtlizensierten Inhalts schadensersatzpflichtig machen wird, wenn sie keine Uploadfilter angewendet hat.[6]

Artikel 17 Absatz 4 lit. b der Urheberrechtsrichtlinie besagt, dass Provider für Urheberrechtsverletzungen ihrer Nutzer haften, wenn sie nicht alle Anstrengungen nach den Maßstäben hoher branchenüblicher Sorgfalt unternehmen, um sicherzustellen, dass bestimmte Werke, zu denen der Rechteinhaber notwendige Informationen zur Verfügung gestellt hat, nicht verfügbar sind. Wenn also ein Rechteinhaber nicht möchte, dass sein Werk auf Plattformen veröffentlicht wird, kann er den Plattformen Erkennungsinformationen zu dem Werk mitteilen. Verhindert die Plattform den Upload dieses Werkes nicht mit branchenüblichen Mitteln – Uploadfiltern – so haftet sie. Durch den Abschluss weitreichender Lizenzvereinbarungen lässt sich dieses Problem nicht beheben: Bereits ein einziges Werk, dass nicht hochgeladen werden darf, macht die Prüfung sämtlicher Uploads erforderlich – was nur automatisiert umsetzbar ist.

Eine Überarbeitung des Haftungsregimes aus Artikel 17 auf EU-Ebene ist deshalb zur Abwendung einer Filterpflicht und der damit einhergehenden Bedrohungen für Meinungs-, Kunst- und Informationsfreiheit dringend geboten. Rechtssicherheit sowie einheitliche Regelungen in Europa können anders nicht gewährleistet werden.

c) Datenschutz-Folgenabschätzung

Wichtige weitere Argumente für eine Änderung des Artikel 17 könnte eine Datenschutz-Folgenabschätzung liefern. Derzeit ist noch unklar, ob und wie Uploadfilter im Einklang mit der Datenschutz-Grundverordnung eingesetzt werden dürfen. Der Einsatz von Uploadfiltern birgt – je nach Umsetzung – die Gefahr eines umfassenden Trackings der Nutzerinnen und Nutzer, die Inhalte hochladen. Relevant ist in diesem Zusammenhang insbesondere die Einbindung der Contenterkennungssysteme von Drittanbietern, vor allem großen Onlineplattformen, die ein Interesse an der Monetarisierung von Daten über Nutzerinnen und Nutzer haben. Bei der technischen Umsetzung ist zudem entscheidend, welche Informationen (z. B. eindeutige Nutzerkennungen bzw. Identifikationsnummern, Zeitpunkt, Domain- und IP-Adressen, unmittelbare oder aus Metadaten abgeleitete Informationen über die hochgeladenen Inhalte) in welchem Umfang verarbeitet und zwischen Diensten ausgetauscht werden. Im Ergebnis besteht das Risiko eines unverhältnismäßigen Eingriffs in die Grundrechte auf private Kommunikation (Artikel 7 Grundrechtecharta) und Datenschutz (Artikel 8 Grundrechtecharta) .

Die Frage einer DSGVO-konformen Umsetzung sollte daher so schnell wie möglich mit einer Datenschutz-Folgenabschätzung im Sinne des Artikel 35 DSGVO bewertet werden. Da es sich bei Filtersystemen um eine „neue Technologie“ im Sinne von Artikel 35 Absatz 1 DSGVO handelt, personenbezogene Daten in großem Umfang verarbeitet werden und zudem Rückschlüsse auf z. B. politische Einstellungen gemäß Artikel 9 DSGVO denkbar sind, wären die Betreibenden als Verantwortliche sowieso zu einer solchen DSFA verpflichtet. Aufgrund der grundsätzlichen Unklarheit über die Rechtmäßigkeit von Filtern, sollte die DSFA jedoch bereits durch den nationalen Gesetzgeber gemäß Artikel 35 Absatz 10 DSGVO erfolgen. Zudem ist eine europäische Zusammenarbeit, etwa im Rahmen des Europäischen Datenschutzausschusses oder des Stakeholder-Dialog im Sinne von Artikel 17 Absatz 10 der Urheberrechtsrichtlinie zum Thema Datenschutzkonformität von Filtersystemen zu empfehlen. Kommt man im Zuge der DSFA zu dem Ergebnis, dass ein rechtskonformer Einsatz überhaupt möglich sein kann, sollten sogleich konkrete Anforderungen für den datenschutzkonformen Einsatz von Filtersystemen normiert werden. Nicht zuletzt sollte klargestellt werden, dass die hier vorgeschlagene Gesetzes-DSFA die Verantwortlichen (Betreiber von Contenterkennungssystemen sowie Dienste, die diese einsetzen) nicht von der Pflicht zur DSFA befreit. Hier sollte vom Ermessen des nationalen Gesetzgebers gemäß Artikel 35 Absatz 10 DSGVO Gebrauch gemacht werden.

d) Europaweit einheitliche Umsetzung

Die Umsetzung sämtlicher Teile der Reform muss in der EU so einheitlich wie möglich erfolgen. Die Bundesregierung sollte daher keine voreilige Umsetzung vorantreiben, sondern den in Artikel 17 Absatz 10 der Richtlinie vorgesehenen Stakeholder-Dialog abwarten.

 

 

[1] Erklärung der Bundesregierung vom 15.04.2019, S. 6, abrufbar unter https://www.parlament.gv.at/PAKT/EU/XXVI/EU/06/18/EU_61832/imfname_10895457.pdf

[2] Pressemitteilung der Kommission vom 06.12.2017: Fighting Terrorism Online: Internet Forum pushes for automatic detection of terrorist propaganda, abrufbar unter: https://europa.eu/rapid/press-release_IP-17-5105_en.htm

[3] Pressemitteilung der CDU: Kompromiss zum Urheberrecht: Keine Uploadfilter! https://www.cdu.de/artikel/kompromiss-zum-urheberrecht-keine-uploadfilter

[4] Spindler, Die neue Urheberrechts-Richtlinie der EU, insbesondere „Uploadfilter – Bittersweet? CR 2019, 277, 290.

[5] Ebd.

[6] Volkmann, Art. 17 Urh-RL und die Upload-Filter: verschärfte Störerhaftung oder das Ende der Freiheit im Internet? CR 2019, 376-384, 380.

Comments are closed.