Blog

Pressemitteilung: Ausführliche Erläuterungen zum Artikel 13/17 der Urheberrechtsrichtlinie in einem Blogbeitrag

Morgen wird im Parlament der Europäischen Union über die Reform der Urheberrechtsrichtlinie abgestimmt. Am Samstag demonstrierten europaweit mehr als 100 000 Menschen gegen die Reform. Der Protest richtet sich insbesondere gegen den Einsatz automatischer Filtersoftware, den Artikel 13 (nach jüngst geänderter Nummerierung Artikel 17) der Reform nach Einschätzung aller Experten nach sich zieht.

Die netzpolitische Organisation Digitale Gesellschaft e.V. hat am Montag, den 25.03.2019, in einem Blogbeitrag  erläutert, dass die Einrichtung von Uploadfiltern zwingend aus dem Text des Artikel 13/17 folgt und welche Folgen für Freiheitsrechte, Datenschutz, Wettbewerb und die mediale Vielfalt des Internets zu befürchten sind.

Link zum Beitrag: https://digitalegesellschaft.de/blog-2/

Leave a comment

Warum Uploadfilter in der Urheberrechtsrichtlinie verhindert werden müssen

Seit 2013 wird in der Europäischen Union über eine Reform des Urheberrechts verhandelt. Das derzeit geltende Urheberrecht der EU stammt im Wesentlichen aus dem Jahr 2001. Seither hat sich der Umgang mit urheberechtlich geschützter Inhalten im Internet stark verändert. Plattformen, auf denen nutzergenerierte Inhalte verbreitet werden, sind aus der digitalen Medienlandschaft nicht mehr wegzudenken. Eine Reform des Urheberrechts ist deshalb dringend nötig. Der aktuelle Richtlinienentwurf, der Ergebnis der Trilogverhandlungen ist und über den das Europäische Parlament am Dienstag abstimmen wird, wird den Anforderungen der digitalisierten Welt an das Urheberrecht aber nicht gerecht. Mit der Abkehr vom Providerprivileg wird das Modell der user-generated-content-Plattform grundsätzlich in Frage gestellt. Das Haftungsregime des Entwurfs zieht zwangsläufig die Einrichtung von Algorithmen, die Inhalte beim Hochladen auf Urheberrechtsverletzungen überprüfen, nach sich – die umstrittenen Uploadfilter. Diese Instrumente werden die Kunst-, Presse-, Meinungs- und Informationsfreiheit stark beschränken. Sie sind schon aus technischer Sicht ungeeignet, um legale Uploads von illegalen zu unterscheiden. Darüber hinaus wird mit dem Entwurf der weiteren Monopolisierung der Digitalwirtschaft Vorschub geleistet.

Dieser Beitrag erläutert, wie Plattformbetreibende unter dem Regime des Artikel 13 (nach aktueller Nummerierung Artikel 17) für hochgeladene Inhalte haften und welche Probleme sich daraus für Freiheitsrechte, die mediale Vielfalt des Internets und den Wettbewerb zwischen Plattformen ergeben.

Artikel 13 (17): Uploadfilter

Die Abkehr vom Providerprivileg

Bisher gilt in der europäischen Union der Grundsatz, dass Plattformbetreibende nur dann für Urheberrechtsverletzungen durch Nutzer haften, wenn sie darauf aufmerksam gemacht werden, dass ein Inhalte rechtswidrig hochgeladen wurde (Providerprivileg). Geregelt ist dieses Haftungsprinzip in der E-Commerce-Richtline (2000/31/EG). Urheberrechtsverletzungen wird mit dem Notice-and-Take-down-Verfahren begegnet. Das bedeutet: Die Rechteinhaber*in wendet sich an die Plattform und teilt mit, dass ein Inhalt ohne Erlaubnis hochgeladen wurde. Daraufhin sperrt die Plattform den Inhalt. Davon weicht der Entwurf der neuen Urheberrechtsrichtlinie grundlegend ab: Artikel 13 Absatz 3 normiert, dass die Betreibenden grundsätzlich für die Inhalte haften, als hätten sie sie selbst hochgeladen. Das widerspricht dem Prinzip der user-generated-content-Plattform fundamental.

3. When an online content sharing service provider performs an act of communication to the public or an act of making available to the public, under the conditions established under this Directive, the limitation of liability established in Article 14(1) of Directive 2000/31/EC shall not apply to the situations covered by this Article. […]“

Neue Kategorie: online content sharing service provider

Der umstrittene Artikel 13 gilt für „online content sharing service provider“. Artikel 2 Absatz 5 des Entwurfs definiert, was unter diesem Begriff zu verstehen ist:

Online content sharing service provider’ means a provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes. Providers of services such as not-for profit online encyclopedias, not-for profit educational and scientific repositories, open source software developing and sharing platforms, electronic communication service providers as defined in Directive 2018/1972 establishing the European Communications Code, online marketplaces and business-to business cloud services and cloud services which allow users to upload content for their own use shall not be considered online content sharing service providers within the meaning of this Directive.“

Erfasst sein sollen also alle Dienste der Informationsgesellschaft, deren Zweck darin besteht, große Mengen von urheberrechtlich geschützten Werken zu speichern und der Öffentlichkeit Zugang dazu zu gewähren, wenn sie profitorientiert sind.

Urheberrechtlich geschützt sind auch die Werke der Nutzer*innen, nicht etwa nur solche anerkannter Künstler*innen, also auch Fotos, Videos, Texte, Audiodateien und andere Inhalte, die von Privatpersonen hergestellt und hochgeladen werden. Das Kriterium grenzt die Provider nur von solchen ab, die gemeinfreie Werke bereitstellen.

Auch unter den Begriff „profitorientiert“ im Rechtssinne kann eine Plattform schneller als im alltäglichen Wortverständnis fallen: Eine Vielzahl von Plattformen schalten etwa Werbung, um die Kosten für den Betrieb einzuholen. Wenn dabei regelmäßig auch nur geringe Gewinn entstehen, haben die Betreiber*innen bereits zu befürchten, als profitorientiert zu gelten. Einen Rechtsstreit mit unsicherem Ausgang über diese Frage können sich gerade wenig profitable Plattformen nicht leisten.

Betroffen sein können also Audio- und Video-Sharing-Portale, Social Media-Plattformen, Foren oder etwa Portale, in denen kostenlose Lehrmaterialen angeboten werden.

Vom Anwendungsbereich ausgenommen sind nicht profitorientierte Online-Enzyklopädien, nicht profitorientierte Bildungs- und Wissenschaftsarchive, Plattformen, die der Entwicklung und dem Teilen von Open Source Software dienen, Online-Marktplätze, Business-to-business-Cloud-Dienste und Cloud-Dienste, bei denen Benutzer Inhalte für die eigene Verwendung hochladen können.

Während in der öffentlichen Debatte viel über Youtube gesprochen wird, zeigt die Weite des Anwendungsbereiche, dass eine Vielzahl von Diensten betroffen ist, für die die Vorschriften gänzlich unpraktikabel sind.

Die Verpflichtung zum Lizenzerwerb

Artikel 13 Absatz 1 schafft die neue Verpflichtung, eine Autorisierung der Rechteinhaber einzuholen.

1. […] An online content sharing service provider shall therefore obtain an authorisation from the rightholders referred to in Article 3(1) and (2) of Directive 2001/29/EC, for instance by concluding a licencing agreement, in order to communicate or make available to the public works or other subject matter.“

Demnach müssen Plattformen sicherstellen, dass so viele Rechteinhaber*innen wie möglich die Veröffentlichung auf der Plattform genehmigen. Sie müssen also proaktiv in Lizenzverhandlungen mit diesen Akteur*innen treten. Praktisch wird das auf Vereinbarungen mit den Verwertungsgesellschaften hinauslaufen. Dieses Konzept mag etwa für die Verbreitung von Musik auf Youtube nicht ungeeignet sein. Auf viele Kategorien von Inhalten lässt es sich aber kaum anwenden: Woher sollen Plattformen etwa Lizenzen für geleakte Dokumente erhalten?

Best efforts: Uploadfilter

Der Begriff „Uploadfilter“ kommt im Text der Verordnung nicht vor. Ihre Einführung ergibt sich aber aus den Anforderungen, denen Plattformen genügen müssen, um eine Haftung für Inhalte, für die keine Lizenz vorliegt, auszuschließen:

4. If no authorisation is granted, online content sharing service providers shall be liable for unauthorised acts of communication to the public of copyright protected works and other subject matter, unless the service providers demonstrate that they have:
(a) made best efforts to obtain an authorisation, and
(b) made, in accordance with high industry standards of professional diligence, best efforts to ensure the unavailability of specific works and other subject matter for which the rightholders have provided the service providers with the relevant and necessary information, and in any event
(c) acted expeditiously, upon receiving a sufficiently substantiated notice by the rightholders, to remove from their websites or to disable access to the notifiedworks and subject matters, and made best efforts to prevent their future uploads inaccordance with paragraph (b).“

Wird ein Inhalt hochgeladen, für den keine Autorisierung des Rechteinhabers vorliegt, so verbleibt folgende Möglichkeit, der Haftung zu entgehen: Die Plattform muss (a) alle Anstrengungen unternommen haben, um eine Genehmigung zu erhalten. Außerdem (b) muss die Plattform alle Anstrengungen unternommen haben, um die Unverfügbarkeit spezifischer Werke sicherzustellen, deren nötige Identifizierungsinformation die Rechteinhaber den Plattformbetreibenden übermittelt haben. Schließlich (c), muss die Plattform auf eine Meldung des Rechteinhabers unverzüglich reagiert haben. Diese Anforderungen müssen kumulativ erfüllt werden, das heißt, wenn auch nur eine der Voraussetzungen nicht vorliegt, haftet die Plattform für die Urheberrechtsverletzung.

Sonderregelungen gelten für Provider, die seit weniger als drei Jahren in der Union Dienste anbieten, deren Jahresumsatz gleichzeitig unter zehn Millionen Euro liegt und die im vergangenen Jahr weniger als fünf Millionen Besucher im Monat hatten. Sie müssen den Anforderungen unter (b) nicht genügen.

Aus technischer Sicht kann unter diesen „best efforts“ nichts anderes zu verstehen sein als die Einrichtung automatischer Filtersysteme, die urheberrechtlich geschützte Inhalte erkennen und blockieren sollen. Solche Filter werden heute bereits von einigen Plattformen angewendet, ohne dass eine gesetzliche Verpflichtung bestünde. Der bekannteste ist Content-ID von Youtube. Wer sicherstellen möchte, dass seine urheberrechtlich geschützten Werke nicht von Unbefugten über diese Plattformen verbreitet werden, kann Erkennungsinformationen (Fingerprints) zur Überprüfung an Youtube melden. Diese werden dann mit den Fingerprints der hochgeladenen Werke abgeglichen. In der Praxis wird aufwendig entwickelte, „intelligente“ Software verwendet, die mit neuronalen Netzen (deep learning) arbeitet, um Inhalte wiederzuerkennen.

Die Verpflichtung zur Verwendung einer solchen Technologie bringt eine Vielzahl von Problemen mit sich:

1. Uploadfilter bedrohen Freiheitsrechte

Automatische Filtersysteme können nicht entscheiden, wann eine Urheberrechtsverletzung vorliegt. Sie können nicht sicher beurteilen, ob ein Inhalt überhaupt ein menschliches Werk ist. So wurde bereits Katzenschnurren von Filtern als geschütztes Material blockiert. Parodien werden nicht als Weiterverarbeitungen erkannt und als Beifang blockiert. Gleiches gilt für erlaubte Zitate. Zwar statuiert Absatz 5, dass die Möglichkeiten der hochladenden Nutzer*innen zu Zitaten, Kritik, Rezensionen, Karikaturen, Parodien und Persiflagen erhalten bleiben sollen:

5.The cooperation between online content service providers and rightholders shall not result in the prevention of the availability of works or other subject matter uploaded by users which do not infringe copyright and related rights, including where such works or subject matter are covered by an exception or limitation. Member States shall ensure that users in all Member States(*)are able to rely on the following existing exceptions and limitations when uploading and making available content generated by users on online content sharing services:
(a) quotation, criticism, review;
(b) use for the purpose of caricature, parody or pastiche“

Technische Möglichkeiten, Urheberrechtsverletzungen zuversichtlich von solchen Werken abzugrenzen, existieren aber nicht. Julia Reda, Abgeordnete im Europäischen Parlament für die Piratenpartei, hat in ihrem Blog eine Sammlung fehlerhafter Filterungen zusammen gestellt. Beispielweise wurde ein Video einer urheberrechtlichen Vorlesung der Harvard Law School blockiert, in der legitimerweise zu Anschauungszwecken kurze Songausschnitte verwendet wurden. Gerade medienkritische Onlineformate arbeiten häufig mit entlarvenden Sendungsausschnitten, wie das Beispiel einer Montage des Blogs Kobuk zeigt. Solche Beiträge werden über Plattformen kaum noch zu verbreiten sein. Immer wieder werden rechtmäßig hochgeladene Aufnahmen von Musikstücken, deren Autoren schon mehr als 70 Jahre verstorben sind, – nach dieser Zeit erlischt das Urheberrecht – gesperrt. Dazu kann es kommen, wenn etwa ein Label eine bestimmte Aufnahme als urheberrechtlich geschützt gemeldet hat und der Uploadfilter nicht zwischen unterschiedlichen Aufnahmen desselben Musikstücks von verschiedenen Interpreten unterscheiden kann. Wie Martin Kretschmer, Professor für Urheberrecht an der Universität Glasgow erläutert, kann mit den Filtern auch der Upload von kompromittierenden Dokumenten, an denen ein öffentliches Interesse besteht, vom Urheber verhindert werden.

Nun könnte man meinen, in Fällen, in denen der Filter einen Inhalt fehlerhaft blockiert, könnten die wahren Rechteinhaber sich rasch mit einer Beschwerde an die Plattformbetreiber wenden und ihren Inhalt ohne Verluste wieder sichtbar machen. Dieses Argument lässt aber die Logik viraler Verbreitung außer Acht, wie ein Fall der Organisation Pinkstinks, die sich gegen Sexismus und Homophobie einsetzt, deutlich macht: Sie hatten via Youtube das von ihnen gedrehte Video „Not Heidi‘s Girl“ verbreitet, das sich kritisch mit der Fernsehsendung Germany‘s Next Topmodel auseinandersetzt. Nachdem das Video bei RTL im Frühstücksfernsehen lief, legte RTL diese Ausstrahlung bei Youtube als urheberrechtlich geschütztes Material vor, woraufhin Youtube den ursprünglichen Clip von Pinkstinks – die ja die tatsächlichen Urheber*innen waren – wegen Urheberrechtsverletzung blockte. Zwar aktivierte Youtube das Video auf Beschwerde von Pinkstinks wieder – die 700 000 Klicks, die das Video zuvor aufwies und die es vielleicht ermöglicht hätten, ein Millionenpublikum zu erreichen, waren jedoch verloren. Eine Entschädigung für die durch RTLs missbräuchliche Meldung entgangene Aufmerksamkeit hat die Gruppe nicht erhalten. Während in diesem Fall die tatsächliche Urheberschaft nicht strittig war, kann es mitunter für die Uploader*in auch recht problematisch sein, der Plattform glaubhaft zu machen, dass sie zur Verbreitung eines Inhalts berechtigt ist.

Meinungs-, Presse-, Kunst- und Informationsfreiheit sind dadurch stark bedroht: Da im Falle einer Urheberrechtsverletzung das Risiko einer Klage über den Plattformen schwebt, sie hingegen für den Fall, dass Inhalte fälschlich gelöscht werden, keine Konsequenzen zu befürchten haben, ist zu erwarten, dass es zu massivem Overblocking kommt. Das meint, dass die Plattformen aus Vorsicht deutlich mehr Inhalte blockieren als eigentlich nötig. Gerade kleinere Anbieter fürchten Rechtsstreitigkeiten und können es sich kaum leisten, es darauf ankommen zu lassen.

2. Artikel 13 schadet Wettbewerb und Datenschutz

Die Einrichtung von Uploadfiltern ist technisch sehr anspruchsvoll. Youtube hat nach eigenen Angaben 100 Millionen US-Dollar in Content-ID, den leistungsfähigsten Uploadfilter der Welt, investiert. Kleinere und mittlere Plattformen können einen solchen Aufwand nicht betreiben und müssten diese Leistung wahrscheinlich von Youtube einkaufen. Das stärkt die Marktposition der ohnehin schon monopolähnlichen Plattformen weiter und stellt daher auch unter wettbewerbspolitischen Gesichtspunkten ein Problem dar. Viele Plattformen warnen derzeit davor, dass sie sich unter dem Regime von Artikel 13 gezwungen sähen, ihren Betrieb einzustellen, so etwa die Initiative Foren gegen Uploadfilter.

Daraus folgt auch ein wesentliches Datenschutzproblem, auf das der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, in einer Presssemitteilung hingewiesen hat: Würde eine Vielzahl von Plattformen die Inhaltsfilterung – so wie es heute schon bei Analysetools gehandhabt wird – an Oligopol-Konzerne auslagern, so würden auch all diese Werkinformationen, möglicherweise mit Daten, die Rückschlüsse auf die hochladende Person zulassen, dort konzentriert werden. Es könnte dann ein guter Teil des ganzen Internettraffics auch über diese Konzerne laufen.

Die Beurteilung, wann eine Urheberrechtsverletzung vorliegt und wann nicht, sollte nicht von Privaten und schon gar nicht von Oligopolen getroffen werden. Auch wenn die Plattformen sich derzeit gegen diese Kontrollverpflichtung wehren, sollte nicht außer Acht gelassen werden, dass ihnen damit eine nicht unerhebliche Machtposition übertragen wird. Die Entscheidungen der Plattformen und der Algorithmen sind nur sehr schwer nachzuvollziehen. Eine demokratische oder juristische Kontrolle der Filter, etwa darauf hin, ob sie diskriminierende Wirkungen entfalten, ist kaum möglich.

3. Eine Zensur findet nicht statt? Vereinbarkeit mit Art. 5 GG

Unter Rechtswissenschaftler*innen ist umstritten, ob staatlich angeordnete Uploadfilter unter den Begriff der Zensur fallen. In Artikel 5 Absatz 1 Satz 2 des Grundgesetzes heißt es „Eine Zensur findet nicht statt.“ Es handelt sich um eine absolute Eingriffsschranke: Während Grundrechte grundsätzlich eingeschränkt werden dürfen, wenn ein legitimer Zweck vorliegt und der Eingriff verhältnismäßig ist, ist eine Zensur immer unverhältnismäßig und damit verfassungswidrig. Was aber ist unter Zensur zu verstehen?

Umfasst ist nur die Vorzensur, das heißt, dass Meinungsäußerungen nur nach vorheriger behördlicher Kontrolle zugelassen werden (Starck, in: Mangoldt/Klein/Starck, Grundgesetz, 5. Auflage 2005. Art. 5 Rn. 170). Grundrechte sind als Abwehrrechte der Bürger*innen gegen den Staat konzipiert. Deshalb wird unter Zensur zunächst die staatliche Kontrolle von Informationen vor deren Publikation verstanden. Mit Artikel 13 würde zwar eine solche Vorkontrolle vorgenommen werden, jedoch nicht von hoheitlichen Stellen selbst, sondern durch Private. Daher meint ein Teil der juristischen Literatur, dass eine solche Filterpflicht keine Zensur sei.

Andererseits wird argumentiert, dass von Privaten unterhaltene Plattformen sich zu bedeutsamen Foren der öffentlichen Meinungsbildung entwickelt haben, weswegen das Zensurverbot grundsätzlich an das veränderte Publikationswesen anzupassen sei (Grabenwarter, in: Maunz/Dürig, Grundgesetzkommentar, 84. EL August 2018, Art. 5 Rn. 119). Wenn Anbieter durch Haftungsregeln zu einzelanlassunabhängigen systematischen Kontrollen und Sperrungen verpflichtet werden, dann käme dies einer Zensur gleich.

Es ist wichtig, sich den Zweck des absoluten Zensurverbots vor Augen zu führen: Das Grundgesetz will jede Möglichkeit zur umfassenden planmäßigen Kontrolle der Kommunikationsinhalte ausschließen. Mögliche Meinungslenkung, eine Lähmung politischen Denkens und voreilendes Anpassungsverhalten der kommunizierenden Bürger*innen sollen ausgeschlossen werden. Meinungslenkung durch Zensur hat sich in der Vergangenheit den technischen Möglichkeiten der Kommunikationsprozesse angepasst: Während etwa die Katholische Kirche bis zur Erfindung des Buchdrucks Nachzensur als ausreichend empfand, führte sie mit Beginn der massenhaften Verbreitung von Druckerzeugnissen die Vorzensur ein (Hoffmann-Riem, in: Kommentar zum Grundgesetz für die Bundesrepublik Deutschland, 3. Auflage 2001, Art 5 Rn. 78). Daran ist abzulesen, dass auch der Zensurbegriff technischen und gesellschaftlichen Veränderungen angepasst werden sollte: Nutzergenerierten Inhalten auf zum Teil monopolartigen Plattformen kommt mittlerweile entscheidende Bedeutung für die Meinungsbildung zu. Der Staat selbst entscheidet zwar nicht im Einzelnen über die Zulässigkeit von Inhalten, ordnet aber die Filterpflicht an. Sind die Filtereinrichtungen einmal geschaffen, so ist – je nach Interessenlage – auch der Kooperation von Plattformbetreibenden mit staatlichen Versuchen, politische unliebsame Beiträge zu unterdrücken, Tür und Tor geöffnet. Dies alles spricht dafür, den Zensurbegriff auf die staatliche Verpflichtung zur anlassunabhängigen Kontrolle sämtlicher Plattforminhalte auszuweiten.

Exkurs: Uploadfilter und Terror Content

Uploadfilter sollen nicht nicht nur den Urheberrechtsschutz stärken, sondern werden auch für einen weitere Anwendungsbereiche diskutiert: Terroristische Online-Inhalte. Die Vorstellung, Terrorpropaganda automatisch löschen oder blockieren zu können, klingt zunächst verlockend. Hier zeigt sich aber ganz besonders die Unfähigkeit der Filtersysteme: Die Plattform Youtube, die sie bereits auf freiwilliger Basis einsetzt, sperrte zehntausende Videos, die Kriegsverbrechen des IS dokumentierten, weil in ihnen IS-Flaggen zu sehen waren.

Nachdem die Innenminister Frankreichs und Deutschlands die EU-Kommission im letzten Jahr aufgefordert hatte, verstärkt gegen Terror-Propaganda im Internet vorzugehen, legte die Kommission im September einen Verordnungsentwurf vor. Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte sollen alle Dienste, die Inhalte von Personen hochladen lassen und sie speichern, um sie Dritten zur Verfügung zu stellen, auf behördliche Anordnung Inhalte binnen einer Stunde löschen. Davon umfasst ist nach dem Kommissionsentwurf jeder Blog mit Kommentarfunktion. Als „terroristisch“ bezeichnet der Entwurf mit der Formulierung „technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten“ auch Berichterstattung von Journalist*innen oder Menschenrechtsorganisationen. Ebenfalls betroffen wäre ein Aufruf zum „Kapern von Luft- und Wasserfahrzeugen oder von anderen öffentlichen Verkehrsmitteln oder Gütertransportmitteln mit dem Ziel, öffentliche Stellen oder eine internationale Organisation rechtswidrig zu einem Tun oder Unterlassen zu zwingen“ – damit könnten in Zukunft auch Aufrufe zu zivilem Ungehorsam entfernt werden. Die breite Definition wurde unter anderem in einem gemeinsamen Bericht des UN-Sonderberichterstatters für Meinungsfreiheit, des UN-Sonderberichterstatters für das Recht auf Privatheit und der UN-Sonderberichterstatterin für den Grundrechtsschutz im Anti-Terror-Kampf scharf kritisiert. Sie erinnern die EU-Institutionen sogar daran, dass auch Inhalte, die den Staat angreifen, schockieren oder stören, vom Recht auf freie Meinungsäußerung umfasst sind:

„The Special Rapporteurs wish to emphasize that the right to freedom of expression extends‘not only to “information” or “ideas”that are favourably received or regarded as inoffensive or as a matter of indifference, but also to those thatoffend, shock or disturbthe State or any sector of the population. Such are the demands of that pluralism, tolerance and broadmindedness without which there is no “democratic society”“.

Neben der Entfernungsanordnung sollen nationale Behörden auch die Möglichkeit haben, Plattformen zur Einrichtung von Uploadfiltern zu verpflichten. Die Verordnung enthält eine ganze Reihe von Ansatzpunkten, die von nationalen Behörden zur Unterdrückung politisch missliebiger Inhalte verwendet werden können. Ganz besonders mangelt es an adäquaten Rechtsschutzmöglichkeiten für die Personen, deren hochgeladener Inhalt blockiert werden soll. So könnte etwa eine polnische Behörde einen Beitrag sperren lassen, der von Deutschland aus auf eine Plattform gestellt wurde. Wollte die hochladende Person sich juristisch dagegen wehren, so müsste sie vor einem polnischen Gericht gegen die Entfernungsanordnung klagen.

Alternativen für die bessere Entlohnung von Kreativen

Es gibt verschiedene Ansätze zur Gewährleistung der gerechten Entlohnung von Kreativen im digitalen Zeitalter. Das Max-Planck-Institut für Innovation und Wettbewerb hat mehrere Ansätze vorgeschlagen: Die Haftung der Plattformen sollte präzisiert und das Notice-and-take-down-Verfahren harmonisiert werden. Dies soll durch ein sogenanntes Counter-Notice-Verfahren ergänzt werden. Private und nichtkommerzielle Nutzungen sollten von der Haftung nicht umfasst werden. Weiterhin schlagen sie eine verpflichtende Abgabe für die Nutzung von Werken, die von Plattformen gezahlt werden soll, vor. Ein weiterer wesentlicher Bestandteil ist die Vereinfachung der transeuropäischen Lizensierungsmechanismen.

Von anderer Seite wurde eine Kulturflatrate vorgeschlagen, ein Pauschalbeitrag, der von Nutzer*innen von Breitbandanschlüssen entrichtet und an Künstlerinnen verteilt werden soll. Im Gegenzug könnte das Kopieren und die Weitergabe von Werken legalisiert werden. Bei Downloads und Streams im Internet könnte erhoben werden, wie oft ein Beitrag angesehen wird und anhand dessen ein Verteilungsschlüssel aufgestellt werden. Ähnlich werden heute bereits beim Kauf von Leer-CDs und Kopiergeräten Abgaben fällig.

Uploadfilter sind keineswegs geeignet, einen gerechten Interessenaustausch für die Verbreitung und die Entlohnung von Immaterialgütern im Netz zu schaffen. Notwendig sind sie dafür schon gar nicht.

Leave a comment

Demo und Pressekonferenz #Berlingegen13

Protest gegen Uploadfilter und die EU-Urheberrechtsreform am 23. März in Berlin


(Berlin, 19. März 2019) Das Bündnis „Berlin gegen 13“ ruft am Samstag, den 23. März um 14 Uhr zu einer Demonstration gegen die EU-Urheberrechtsreform in Berlin auf. Die Demonstration startet am Potsdamer Platz, geht an Wikimedia und der SPD-Zentrale vorbei und endet am Platz des 18. Märzes am Brandenburger Tor.

Das Bündnis fordert die Abgeordneten des Europaparlamentes auf, die EU-Urheberrechtsreform in der jetzigen Fassung abzulehnen.
Das breite zivilgesellschaftliche Bündnis „Berlin gegen 13“ wird getragen von Campact, dem Chaos Computer Club, der netzpolitischen Organisation Digitale Gesellschaft, der Initiative Digitale Freiheit, dem Journalistenverband Freischreiber, dem Frauen-Hackspace Heart of Code und der europäischen Kampagne Save The Internet. Das Bündnis wird von weiteren Organisationen unterstützt.

Mehr Informationen zum Bündnis: https://berlingegen13.wordpress.com

Termine: 
Morgens am 21. März um 9:30 Uhr gibt es Proteste bei einer Pressekonferenz mit Axel Voss. Diese finden Unter den Linden 78 statt. Diese Kundgebung ist nicht vom Bündnis Berlin gegen 13 angemeldet.

Pressekonferenz 21. März um 18 Uhr, bei Cadus („Crisis Response Makerspace“ (CRM) im S-Bahnbogen in der Holzmarkstrasse 19, 10243 Berlin). Danach ist zum gemeinsamen „Demo-Basteln“ eingeladen, bei dem die Presse weitere Kontakte aufnehmen kann und Aktivist/innen für Statements zur Verfügung stehen.
Am 23. März startet die große Berliner Demonstration um 14 Uhr am Potsdamer Platz, sie zieht vorbei an Wikimedia und SPD-Zentrale via Wilhelmstraße zum Platz des 18. März am Brandenburger Tor. Dort wird die Abschlusskundgebung stattfinden.  Zeitgleich wird in vielen weiteren europäischen Städten demonstriert.

Ansprechpartner für die Presse:

berlingegen13@heartofcode.org

Bruno Kramm (Anmelder) brunokramm3@googlemail.com 0162 66 99 666



Leave a comment

Newsletter März 2019

Liebe Freunde, liebe Freundinnen der DigiGes,

Unsere Arbeit ist gerade davon dominiert, die aktuelle Version der EU-Urheberrechtsreform zu verhindern. Darüberhinaus gab es aber auch noch einige andere Themen.

1. EU-Urheberrechtsreform
2. EU-Verordnung zu terroristischen Online-Inhalten
3. Brandenburger Polizeigesetz
4. Netzpolitischer Abend
5. DigiGes in den Medien

1. Urheberrechtsreform

Jetzt geht es darum, am 23. März 2019 europaweit noch einmal laut und deutlich zu zeigen, dass die Bürger*innen von dieser Urheberrechtsreform nichts halten. In Berlin rufen wir im Bündnis „Berlin gegen 13“ zu der Demonstration um 14:00 Uhr auf. Es geht vom Potsdamer Platz zum Brandenburger Tor.
https://berlingegen13.wordpress.com/
Unterstützende Organisationen und Einzelne sind herzlich willkommen. Gemeinsam sammeln wir für die Finanzierung der Demonstration (Bühne, LKW, Lautsprecheranlagen, usw.):

Die Demo am 2. März 2019 war viel größer geworden als erwartet und die Medien haben vielfältig darüber berichtet (siehe die lange Liste am Ende des Newsletters). Für die DigiGes hat Volker Grassmuck eine Rede gehalten.

Da kurz darauf bekannt wurde, dass es Bestrebungen in der EU gab, die Abstimmungen im EU-Parlament zeitlich vorzuziehen, haben wir kurzfristig mit aufgerufen zu einer Demo am 5. März 2019 vor der CDU-Zentrale in Berlin. Mitten in der Woche an einem verregneten Abend kamen dennoch kurzfristig 2.000 (laut Polizeischätzung) Leute zusammen.
Zugleich haben wir uns in einem offenen Brief gemeinsam mit weiteren Organisationen an EU-Parlamentarier gewandt. Wir fordern, die Bedenken und Proteste gegen Artikel 13 ernst zu nehmen und eine Vorverlegung der Abstimmung zu verhindern.

Auf unserer Internetseite unter der Rubrik „Mitmachen“  fassen wir unsere Kritik an der Urheberrechtsreform kurz zusammen und listen die Möglichkeiten auf, selbst aktiv zu werden:

Ruf deine Abgeordneten an!
Weitere Informationen zu dieser Aktion.
Weitere Informationen und Aktionen:
SaveYourInternet zu Art. 13!
Tell your MEP: Stop Copyright Censorship!

EU-Urheberrechtsreform – Schutz oder Zensur? Podiumsdiskussion in Hamburg,
19.3.2019, 19:00 – 21:00 Uhr u.a. mit Volker Grassmuck von der DigiGes.

2. EU-Verordnung zu terroristischen Online-Inhalten

Schon im letzten Newsletter informierten wir über unseren offenen Brief an deutsche Abgeordnete im Libe-Ausschuss.
Ihr könnt nun auch selbst aktiv werden: über die Kampagne von La Quadrature du Net kann man Abgeordnete kontaktieren.

3. Brandenburger Polizeigesetz

Die Digitale Gesellschaft hat sich an der „außerparlamentarischen Anhörung“ zum neuen Brandenburger Polizeigesetz am 2. März 2019 beteiligt und dort die geplanten Maßnahmen zu Quellen-Telekommunikationsüberwachung kritisiert.

4. Netzpolitischer Abend

Der nächste Netzpolitische Abend findet am 2. April 2019 auf der c-base ab 20:00 Uhr statt.
Programm:
In Kürze unter https://digitalegesellschaft.de/portfolio-items/netzpolitischer-abend/ zu finden.

Organisatorisches:
Ihr findet die c-base in der Rungestraße 20, 10179 Berlin.
Einlass ist wie immer ab 19:15 Uhr, los geht’s um 20:00 Uhr, selbstverständlich auch im Stream unter . Der Eintritt ist frei.

Hashtag:
Der Hashtag für den nächsten Abend ist #npa81. Gebraucht ihn gerne und reichlich, auch für Feedback und Fragen, wenn Ihr nicht vor Ort sein könnt.
Am 05. Februar fand unser 79. Netzpolitischer Abend statt. Für diejenigen unter euch, die nicht dabei sein konnten, gibt es die Videos hier zum Nachschauen.

Rückblick

Am 05. Februar fand unser 79. Netzpolitischer Abend statt. Für diejenigen unter euch, die nicht dabei sein konnten, gibt es die Videos hier zum nachschauen.

Die DigiGes hat eine neue Referentin; Elisabeth Niekrenz stellt sich vor.

Der Prototype Fund geht schon in die 2. Runde. Adriana Groh und Thomas Friese stellen das Thema der neuen Ausschreibung für engagierte Software- Projekte vor.

Adriana Groh und Thomas Friese beantworten Fragen zum Prototype Fund.

Künstliche Intelligenz, Algorithmen, Big Data und weitere digitale Technologien prägen zunehmend unseren Alltag. Doch was bedeutet das für die Einzelne oder den Einzelnen? Im ANNA-Projekt werden unterhaltsame sowie informative Inhalte aufbereitet, die dieser Frage anhand von Themen wie Wohnen, Einkaufen, Gesundheit oder soziales Leben nachgehen (ein Projekt von iRights e.V., gefördert: BMJV) Gina Schad und Nele Heise berichten Genaueres.

Vor Brexit und Europawahl stellt sich wieder einmal die Frage nach einer europäischen Öffentlichkeit. ARD-Chef Wilhelm will keine europäische Supermediathek mehr, sondern ein digitales Ökosystem – gemeinsam mit den Zeitungsverlegern. Volker Grassmuck berichtet über den aktuellen Stand und die Alternativen.

Die Videos des letzten Abends, also im März, konnten wir leider noch nicht auf unserer Internetseite einstellen. Zu sehen sind sie aber selbstverständlich auf der c-base-Seite.

5. DigiGes in den Medien

Berichte zur Demo gegen Uploadfilter am 2. März 2019
https://www.neues-deutschland.de/artikel/1113556.artikel-proteste-gegen-eu-urheberrechtsreform.html

https://www.t-online.de/digital/internet/id_85341518/tausende-demonstrieren-gegen-eu-urheberrechtsreform-.html

https://www.heise.de/newsticker/meldung/Demo-gegen-EU-Copyright-Reform-Artikel-13-Wir-sind-nicht-nur-die-Kinder-von-Google-4324615.html

https://www.morgenpost.de/berlin/article216564853/3500-Menschen-bei-Berlin-Demo-gegen-Urheberrechtsreform.html

http://www.taz.de/!5577549/

https://www.tagesspiegel.de/gesellschaft/medien/uploadfilter-tausende-demonstrieren-in-berlin-gegen-neues-urheberrecht/24059332.html

https://www.golem.de/news/berlin-gegen-artikel-13-axel-voss-bewegt-massen-im-kampf-fuer-das-freie-internet-1903-139747.html

https://www.bz-berlin.de/berlin/3500-menschen-bei-demo-gegen-urheberrechtsreform

https://www.watson.de/digital/deutschland/621909465-berlin-gegen-13-demo-gegen-artikel-13-und-eu-urheberrechtsreform

https://www.pcwelt.de/news/Artikel-13-3.500-Teilnehmer-bei-Demo-in-Berlin-10549115.html

https://www.handelsblatt.com/politik/deutschland/artikel-13-diesel-filter-statt-upload-filter-demonstration-gegen-eu-urheberrechtsreform/24058706.html

https://www.berliner-zeitung.de/berlin/artikel-13-3500-menschen-demonstrieren-gegen-internet-urheberrechtsreform-32132846

https://www.mdr.de/nachrichten/politik/ausland/demos-gegen-urheberrechtsreform-100.html

5.000 Menschen demonstrieren in Berlin gegen Uploadfilter und rufen: „Wir sind keine Bots“!

Demonstration gegen Artikel 13

International:
https://derstandard.at/2000098868943/Tausende-demonstrierten-in-Berlin-gegen-die-EU-Urheberrechtsreform

https://futurezone.at/netzpolitik/tausende-demonstrierten-gegen-die-eu-urheberrechtsreform-und-uploadfilter/400423433

https://www.dw.com/en/thousands-in-berlin-protest-eus-online-copyright-plans/a-47753399

TV:
https://www.rbb24.de/politik/beitrag/2019/03/eu-urheberrechtsreform-berlin-demonstration-artikel-13.html

http://www.tagesschau.de/multimedia/sendung/bab/bab-4559~_bab-sendung-517.html

https://www.zdf.de/nachrichten/heute/tausende-menschen-demonstrieren-gegen-uploadfilter-100.html

https://www.zdf.de/nachrichten/heute/uploadfilter-angst-um-junge-waehler-100.html

https://www.tagesschau.de/multimedia/video/video-511423.html

Radio:
https://www.deutschlandfunk.de/berlin-gegen-13-proteste-gegen-eu-urheberrecht.1939.de.html?drn:news_id=982485

Tagung Digitalcourage

https://www.sonntagsblatt.de/artikel/medien/digitalcourage-experten-fordern-staerkeren-einsatz-fuer-digitale-rechte

Leave a comment

Zivilgesellschaft und Digitalverbände warnen: Durchdrücken der Urheberrechtsreform inklusive Uploadfilter ist der falsche Weg!

Gemeinsam mit weiteren Organisationen fordern wir in einem offenen Brief Gehör für die Bedenken und Proteste gegen Artikel 13.

06. März 2019

Sehr geehrter Herr Weber MEP,

Sehr geehrter Herr Bullmann MEP,

Sehr geehrter Herr Verhofstadt MEP,

Sehr geehrte Frau Keller MEP,

Sehr geehrte Frau Zimmer MEP,

die von der EVP-Fraktion beantragte mögliche Vorverlegung der Plenarabstimmung sehen wir als äußerst schädlich für das Anliegen einer ausbalancierten Netzregulierung an. Gerade in der Außenwirkung und mit Blick auf das massiv gestiegene Interesse vieler junger Europäerinnen und Europäer würde das ein verheerendes Bild abgeben.

Die Diskussion um die Regelungen in Artikel 13 des Richtlinienentwurfs wird mit großer Energie geführt. Eine Verschiebung der Entscheidung auf einen Zeitpunkt nach der Europawahl und mögliche Anpassungen in einer neuen Verhandlungsrunde könnten das Scheitern einer an sich notwendigen Reform verhindern, an der so viele Akteure lange und intensiv mitgewirkt haben. Bei der Abwägung von Grundrechten und Entscheidungen zu hoch komplizierten und polarisierenden Themen ist es für den demokratischen Prozess wichtig, dass alle Akteure hinreichend gehört werden. Eine Vorverlegung würde diesen Prozess untergraben.

Wir Unterzeichnende, Vertreterinnen und Vertreter der Zivilgesellschaft, der Wirtschaft und der Internetkultur, bitten Sie aufgrund der aktuellen Entwicklungen erneut, die faktisch verpflichtende Einführung von Upload-Filtern zu verhindern.

Artikel 13 ist zum Mühlstein um den Hals der dringend notwendigen Aktualisierung des europäischen Urheberrechts geworden. Sollte die Betreiberhaftung in der geplanten Form ausgeweitet werden, werden klare Anreize gesetzt, um auch solche Inhalte zu blockieren, die rechtmäßig eingestellt wurden (Overblocking). Die Plattformen werden versuchen, ihr Haftungsrisiko zu minimieren und nur noch ihnen bekannte und geprüfte Inhalte erlauben. Wirksame Maßnahmen, die rechtmäßig eingestellte Inhalte unmittelbar vor entsprechender Blockung schützen, sind im aktuellen Text nicht vorgesehen. Die vorgesehenen Widerspruchslösungen begegnen dem nur unzureichend. Eine der Erfolgsformeln des Internets, das Teilen von Informationen und Inhalten, ist damit in Gefahr.

Wir fordern Sie daher im Namen der Nutzerinnen und Nutzer, aber auch der Kreativen auf, die Entscheidung nicht vorzuverlegen, besser sogar zu verschieben, um nachhaltigen Schaden am Bild der europäischen Gesetzgebung insbesondere bei jungen Leuten zu verhindern. Die Parlamentarierinnen und Parlamentarier brauchen gerade jetzt Zeit, um das Für und Wider abzuwägen.

Mit freundlichen Grüßen

Wikimedia Deutschland – Gesellschaft zur Förderung Freien Wissens e.V.

Verbraucherzentrale Bundesverband e.V.

Bundesverband Deutsche Startups e. V.

Bundesverband IT-Mittelstand e. V.

Bundesverband Digitale Wirtschaft (BVDW) e. V.

Deutscher Gründerverband e. V.

eco – Verband der Internetwirtschaft e. V.

D64 – Zentrum für digitalen Fortschritt e. V.

LOAD e.V. – Verein für liberale Netzpolitik

Digitale Gesellschaft e. V.

Open Knowledge Foundation Deutschland e. V.

Gesellschaft Katholischer Publizisten Deutschlands e. V.

Jugendpresse Deutschland e. V.

Deutscher Bundesjugendring e. V.

Leave a comment

80. Netzpolitischer Abend

Den nächsten Netzpolitischen Abend gibt’s am Dienstag, den 05. März 2019, wie immer ab 20 Uhr auf der c-base.

Programm:

Elisabeth Niekrenz: Die Anti-Terrorpropaganda-Verordnung

Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte will die EU gegen Terrorpropaganda im Netz vorgehen. Eine ausgedehnte Definition terroristischer Inhalte, die auch Blockadeaufrufe umfassen kann, Uploadfilter und die Verpflichtung für Plattformen, Inhalte binnen einer Stunde zu löschen, könnten eine europaweite Infrastruktur zur Kontrolle des Internets schaffen. Elisabeth Niekrenz erklärt den aktuellen Entwurf und berichtet über das
Gesetzgebungsverfahren sowie laufende Kampagnen gegen die Verordnung.

Katharina Nocun and Basanta E. P. Thapa: Public Money, Public Code

Die Free Software Foundation Europe (FSFE) spricht sich dafür aus, Freie Lizenzen zum Standard bei Eigenentwicklungen der öffentlichen Hand zu machen. Freie Lizenzen bieten nicht nur Chancen für Kostenersparnis durch Synergieeffekte und mehr Transparenz. Sie sind auch der beste Schutz vor Lock-In-Situationen und Abhängigkeit. Katharina Nocun und Basanta E. P. Thapa stellen die aktuelle Publikation zur Kampagne vor und geben konkrete Hinweise, welche Updates bei Ausschreibungen sinnvoll wären.

Kim Arora: Aadhaar and Privacy in India
A quick introduction to India’s national biometric ID project from enrolling over 1.2 billion citizens to being challenged in court over privacy. (Plus, a look at some of the data breaches)

Kim Arora, Journalistin aus Indien und derzeit Gastwissenschaftlerin am WZB, informiert über diese Datenbank.

Die Privacy Week Berlin 2019 wird vorgestellt werden.

Organisatorisches:

Ihr findet die c-base in der Rungestraße 20, 10179 Berlin. Einlass ist wie immer ab 19:15 Uhr, los geht’s um 20 Uhr, selbstverständlich auch im Stream unter http://c-base.org. Der Eintritt ist frei.

Hashtag:

Der Hashtag für diesen Abend ist #npa080, gebraucht ihn gerne und reichlich, auch für Feedback und Fragen, wenn ihr nicht vor Ort sein könnt.

00002-langer-atem-marathon-quelle

Rückblick

Am 05. Februar fand unser 79. Netzpolitischer Abend statt. Für diejenigen unter euch, die nicht dabei sein konnten, gibt es die Videos hier zum nachschauen.

Die DigiGes hat eine neue Referentin; Elisabeth Niekrenz stellt sich vor.

Der Prototype Fund geht schon in die 2. Runde. Adriana Groh und Thomas Friese stellen das Thema der neuen Ausschreibung für engagierte Software- Projekte vor.

Adriana Groh und Thomas Friese beantworten Fragen zum Prototype Fund.

Künstliche Intelligenz, Algorithmen, Big Data und weitere digitale Technologien prägen zunehmend unseren Alltag. Doch was bedeutet das für die Einzelne oder den Einzelnen? Im ANNA-Projekt werden unterhaltsame sowie informative Inhalte aufbereitet, die dieser Frage anhand von Themen wie Wohnen, Einkaufen, Gesundheit oder soziales Leben nachgehen (ein Projekt von iRights e.V., gefördert: BMJV) Gina Schad und Nele Heise berichten Genaueres.

Vor Brexit und Europawahl stellt sich wieder einmal die Frage nach einer europäischen Öffentlichkeit. ARD-Chef Wilhelm will keine europäische Supermediathek mehr, sondern ein digitales Ökosystem – gemeinsam mit den Zeitungsverlegern. Volker Grassmuck berichtet über den aktuellen Stand und die Alternativen.

Kommentare deaktiviert für 80. Netzpolitischer Abend

Protest gegen Uploadfilter und EU-Urheberrechtsreform am 2. März in Berlin

Das Bündnis „Berlin gegen 13“ ruft am Samstag, den 2. März um 13 Uhr zu einer Demonstration gegen die EU-Urheberrechtsreform in Berlin auf. Die Demonstration startet am Axel-Springer-Hochhaus (Rudi-Dutschke-Straße/Lindenstraße), geht am Justizministerium vorbei und endet an der Vertretung der Europäischen Kommission in der Nähe des Brandenburger Tores.

Die EU-Urheberrechtsreform läuft mit Artikel 13 darauf hinaus, dass Plattformen eine automatisierte Inhaltskontrolle einführen müssen. Diese Uploadfilter werden massive Auswirkungen auf die Meinungsfreiheit und die Vielfalt des Internets haben. Automatisierte Filter sind nicht in der Lage, den Kontext von Inhalten einzuschätzen und daher sehr fehleranfällig. Sie können nicht zwischen Urheberrechtsverletzungen und schöpferischen Adaptionen unterscheiden. Kleinere Plattformen haben nicht die nötigen Ressourcen, um selbst aufwändige Filtermechanismen zu entwickeln und müssten die Technologie bei den großen Anbietern einkaufen, was deren Marktmacht weiter stärken würde.

Die juristisch anspruchsvolle Entscheidung über die Zulässigkeit von Meinungsäußerungen und darüber, welche Inhalte tatsächlich Urheberrechte verletzen, wird samt der Rechtsdurchsetzung auf private Anbieter übertragen. Wegen des Haftungsrisikos werden die Anbieter im Zweifel zu viele Inhalte blockieren. Eine demokratische Kontrolle der Filtermechanismen ist nicht vorgesehen.

Darüber hinaus können solche Uploadfilter jederzeit auch für eine absichtliche Aussortierung missliebiger Meinungen genutzt werden. Die Einführung einer automatisierten Inhaltskontrolle auf vielen Internetplattformen und Apps legt den technischen Grundstein für eine mögliche Zensur- und Kontrollinfrastruktur. Und sie hilft dabei noch nicht einmal den Urheberinnen und Urhebern, eine faire Entlohnung zu bekommen.

Das Bündnis fordert die Abgeordneten des Europaparlamentes auf, die EU-Urheberrechtsreform in der jetzigen Fassung abzulehnen.


Das Bündnis „Berlin gegen 13“ wird getragen vom Chaos Computer Club, der Digitalen Gesellschaft, dem Journalistenverband Freischreiber und dem Frauen-Hackerspace Heart of Code. Das Bündnis wird von weiteren Organisationen unterstützt.

Mehr Informationen zum Bündnis: https://berlingegen13.wordpress.com
Ansprechpartner: berlingegen13@heartofcode.org

Kommentare deaktiviert für Protest gegen Uploadfilter und EU-Urheberrechtsreform am 2. März in Berlin

Pledge2019.eu: Urheberrechtsreform wahlentscheidendes Thema zur Europawahl – Zivilgesellschaftliche Organisationen rufen BürgerInnen europaweit auf, ihre Abgeordneten anzurufen.

Millionen Europäer*innen sind entzürnt über die katastrophalen Auswirkungen der Urheberrechtsreform, die noch kurz vor der Europawahl durchgewunken werden soll. Gemeinsam mit Partnerorganisationen aus ganz Europa, unter anderem mit der netzpolitischen Organisation Digitale Gesellschaft, startet die Grundrechtsorganisation epicenter.works nun die Kampagne Pledge2019.eu [1] und ruft die Internetnutzer*innen dazu auf, ihre gewählten Vertreter*innen im Europäischen Parlament anzurufen. Die Message ist klar: Wir wählen nur die PolitikerInnen wieder, die gegen die Urheberrechtsreform stimmen.

Auf der Kampagnenplattform Pledge2019.eu haben Internetnutzer*innen aus ganz Europa die Möglichkeit, ihre Abgeordneten kostenfrei anzurufen und sie um das Versprechen zu bitten, gegen Uploadfilter zu stimmen. „Mit einer der größten Petitionen aller Zeiten und annähernd 5 Millionen Unterschriften [2] ist schon jetzt klar, dass Uploadfilter den EuropäerInnen ein wichtiges Thema sind. Gemeinsam können wir jetzt verhindern, dass dieses katastrophale Gesetz noch kurz vor der Wahl durchgewunken wird“, so Bernhard Hayden, Sprecher der digitalen Grundrechtsorganisation epicenter.works. „Da einige EU-Abgeordnete junge Menschen, die dagegen aufstehen, als ‚Mob‘ und ‚Bots‘ bezeichnen, ermöglichen wir den WählerInnen direkt mit ihren gewählten VertreterInnen zu sprechen und damit klarzustellen, dass die großen Bedenken gegen die EU-Urheberrechtsreform aus der breiten Bevölkerung kommen.“

Zur Erinnerung: Vor wenigen Tagen wurden die Verhandlungen zwischen dem Europäischen Parlament und den Vertreter*innen der Mitgliedsstaaten zur Urheberrechtsreform abgeschlossen. Weiterhin ist der umstrittene Artikel 13 im Vorschlag inkludiert. Er wird Internetplattformen dazu verpflichten, Uploadfilter einzusetzen, um alle hochgeladenen Inhalte vorab auf ihre Legalität zu prüfen.

„Uploadfilter sind ein direkter Angriff auf unsere Meinungsfreiheit und verhindern effektiv eine vielfältige Kulturlandschaft im Internet“, erklärt Hayden

„Kleinere und mittlere Plattformen können die komplexem Filteralgorithmen nicht selbst entwickeln und müssten diese Leistung von größeren Betreibern wie Youtube (Google) einkaufen. Das stärkt die Marktposition der ohnehin schon monopolähnlichen Plattformen weiter“, so Elisabeth Niekrenz, politische Referentin der Digitalen Gesellschaft.

Als nächster Schritt wird der verhandelte Text kurz vor der Europawahl im Plenum des Europäischen Parlaments von allen 751 Mitgliedern aus 28 Ländern abgestimmt. „Die Urheberrechtsreform wird bei dieser Wahl ein entscheidendes Thema sein“, ist sich Hayden sicher.

[1] Link zur Kampagnenwebsite: https://pledge2019.eu
[2] Link zur Online-Petition: https://www.change.org/p/european-parliament-stop-the-censorship-machinery-save-the-internet

Kommentare deaktiviert für Pledge2019.eu: Urheberrechtsreform wahlentscheidendes Thema zur Europawahl – Zivilgesellschaftliche Organisationen rufen BürgerInnen europaweit auf, ihre Abgeordneten anzurufen.

Newsletter Februar 2019

Liebe Freunde, liebe Freundinnen
der DigiGes,

Herzlichen Dank für die Spenden, die uns zu Beginn des Jahres erreicht haben. Für die Spenden aus 2018 verschicken wir im Februar/März 2019 die Spendenquittungen. Allerdings werden Spendenquittungen nur benötigt, für Spenden über 200 Euro. Darunter reicht ein einfacher Nachweis.
Unser aktueller Freistellungsbescheid liegt auf unserer Internetseite:
Auf Wunsch stellen wir aber selbstverständlich auch für Beträge unter 200 Euro eine Spendenbescheinigung aus. Alle die uns mitgeteilt haben, dass sie eine Bescheinigung wünschen, bekommen diese in den nächsten Wochen zugeschickt. Bitte denkt daran, dass Ihr uns Adressänderungen gegebenenfalls mitteilt.

Aktuell rufen wir zu Protesten gegen den Artikel 13 der EU-Urheberrechtsreform auf. Es gibt eine letzte Chance, dass sich das EU-Parlament gegen den ausgehandelten Entwurf entscheidet. (siehe 2.)

1. Tätigkeitsbericht 2018
2. EU-Urheberrechtsreform
3. EU-Verordnung zu terroristischen Inhalten
4. Verbändegespräche zur e-Privacy-Verordnung mit BMJV und BMWi
5. Safer Internet Day
6. BSI-Projekt zur Institutionalisierung des gesellschaftlichen Dialogs
7. Sicher und bewusst im Netz
8. Netzpolitischer Abend
9. Veranstaltungen mit der DigiGes
10. Deine Daten Deine Rechte
11. Digiges in den Medien

1. Tätigkeitsbericht 2018

Den Bericht über unsere Arbeit im Jahr 2018 haben wir erstellt und auf unserer Internetseite veröffentlicht. Dort sind auch die Berichte aus den vergangenen Jahren zu finden.
https://digitalegesellschaft.de/uber-uns/transparenz/

2. EU-Urheberrechtsreform

Mit der Urheberrechtsrichtlinie, über die das europäische Parlament bald abstimmen wird, werden Online-Plattformen verpflichtet, Uploadfilter einzuführen, die urheberrechtlich geschützte Inhalte erkennen und blockieren sollen.

Uploadfilter sind Black Boxes, die die Informationsfreiheit im Internet einschränken. Sie verstehen den Kontext von Inhalten nicht, werden das Teilen von Informationen mit Links und kurzen Teasertexten verhindern und Memes, Parodien und Adaptionen blockieren.

Die DigiGes ruft gemeinsam mit dem Chaos Computer Club, Freischreiber e.V. und Heart of Code e.V. zur Demo #Berlingegen13
am Samstag, 02.03.2019 auf:
13 Uhr am Axel-Springer-Hochaus
Unterstützer*innen des Aufrufs  sind herzlich willkommen. Bitte sendet dann eine Email an: berlingegen13(at)heartofcode.org
Bitte verbreitet den Aufruf!

Montag werden wir Euch voraussichtlich wegen einer weiteren EU-Aktion in dieser Sache informieren.

3. Offener Brief gegen die geplante EU-Verordnung zu terroristischen Online-Inhalten

Im EU-Parlament wird derzeit über einen Verordnungsentwurf der Kommission zur Verhinderung der Verbreitung terroristischer Online-Inhalte verhandelt. Der Entwurf birgt erhebliche Einschränkungen von Meinungs-, Informations- und Berufsfreiheit.

Nach dem Entwurf sollen als terroristisch eingestufte Inhalte auf behördliche Anordnung binnen einer Stunde gelöscht werden. Davon sind alle Internetdiensteanbieter, die Informationen von Nutzern speichern, um sie Dritten zur Verfügung zu stellen, betroffen – also auch private Cloud-Dienste, Nachrichtenportale und Blogs sowie Foren mit Kommentarfunktion. Die Verordnung würde das Aus für viele kleinere Anbieter und Non-Profit-Dienste bedeuten. Besonders problematisch ist, dass die Definition terroristischer Inhalte in ihrer derzeitigen Form journalistische Tätigkeiten und Erscheinungsformen zivilen Ungehorsams umfasst.

Die Digitale Gesellschaft e.V. hat sich gemeinsam mit dem Chaos Computer Club, der Gesellschaft für Informatik, der Aktion Freiheit statt Angst, dem Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung, Digitalcourage und Wikimedia Deutschland in einem offenen Brief  an die deutschen Abgeordneten im Ausschuss für Bürgerliche Freiheiten, Justiz und Inneres (LIBE) gewandt und sie dazu aufgefordert, den Entwurf abzulehnen.

Link zur Pressemitteilung: https://digitalegesellschaft.de/2019/02/digitale-gesellschaft-kritisiert-eu-verordnungsentwurf-zur-verhinderung-der-verbreitung-terroristischer-online-inhalte-in-offenem-brief/

4. Verbändegespräche zur e-Privacy-Verordnung mit BMJV und BMWi

Seit mehr als zwei Jahren ringt die EU um die e-Privacy Verordnung, mit der das Datenschutzrecht für elektronische Kommunikationen reformiert werden soll. Nachdem wir im Oktober letzten Jahres in einem offenen Brief an Bundeswirtschaftsminister Peter Altmaier ein hohes Schutzniveau gefordert hatten, nahmen wir gemeinsam mit weiteren zivilgesellschaftlichen Organisationen an zwei Verbändegesprächen mit dem Bundesministerium für Justiz und Verbraucherschutz und dem Bundesministerium für Wirtschaft teil.

In den Gesprächen wie auch in einer Presseinformation haben wir betont, dass die e-Privacy-Verordnung nicht hinter der DSGVO zurückbleiben dürfe und unter anderem eine Regulierung für Tracking-Walls gefordert. Außerdem haben wir uns dem Vorschlag, elektronische Kommunikation von den Diensteanbietern anlasslos und flächendeckend auf kinderpornographische Inhalte durchsuchen zu lassen, entschieden entgegen gestellt.

5. Safer Internet Day

Das Bundesministerium für Justiz und Verbraucherschutz hat anlässlich des Safer-Internet-Days eine Konferenz zum Thema „Das Konto immer dabei: Neue digitale Bezahlmethoden – ein Plus für Verbraucherinnen und Verbraucher?“ veranstaltet. https://www.bmjv.de/WebS/ZB3/DE/Infoseiten/SID2019/SID2019_node.html Für die DigiGes hat sich Elisabeth Niekrenz an der Podiumsdiskussion zum Thema „Schöne neue Welt des Bezahlens – Chancen und Risiken für die Verbraucherinnen und Verbraucher“ beteiligt. Sie hat dort eine gesamtgesellschaftliche Debatte über die Datenökonomie gefordert und betont, dass anonyme Zahlungsmittel erhalten bleiben müssen.

6. BSI-Projekt zur Institutionalisierung des gesellschaftlichen Dialogs

Dieses Projekt hat in den vergangenen Wochen richtig Fahrt aufgenommen. Im Januar 2019 haben die Mitglieder der Kerngruppe, bestehend aus Vertreterinnen und Vertretern aus Zivilgesellschaft, Wissenschaft, Wirtschaft, Kultur & Medien sowie Verwaltung, getagt und die Arbeitspakete weiterbearbeitet. Im Februar fand die Denkwerkstatt in Leipzig statt. Insbesondere ging es in letzter Zeit um die partizipative Weiterentwicklung der Ideen zur Ausgestaltung einer institutionalisierten gesellschaftlichen Zusammenarbeit mit dem BSI.
Das BSI arbeitet intern an einer Strategie für Partizipation im BSI, um den Dialogprozess besser zu verankern. Ein Modell für eine Institutionalisierung des gesellschaftlichen Dialogs in einer neu zu schaffenden Geschäftsstelle, die für einige Jahre vom BSI als Projekt außerhalb der eigenen Organisation finanziert werden sollte, ist entwickelt worden. Basis der inhaltlichen Arbeit und Kommunikation soll die regelmäßig stattfindende Denkwerkstatt werden.

7. Sicher und bewusst im Netz

Schon seit mehreren Jahren kooperieren wir mit dem Quartiersmanagement Pankstraße und organisieren seit letztem Jahr Unterrichtseinheiten in der Albert-Gutzmann-Schule zu Funktion und Umgang mit Internet und Smartphone. Anfang Februar haben die Schüler*innen der sechsten Klassen mit den Zeugnisse auch unsere Zertifikate über die Teilnahme am Projekt „Sicher und bewusst im Netz“ erhalten. Ende Februar beginnen die neuen Einheiten in den vier parallelen fünften Schuljahrsklassen.

8. Netzpolitischer Abend

Der nächste Netzpolitische Abend findet am 5. März 2019 auf der c-base ab 20:00 Uhr statt.

Programm:
In Kürze unter https://digitalegesellschaft.de/portfolio-items/netzpolitischer-abend/ zu finden.
Organisatorisches:
Ihr findet die c-base in der Rungestraße 20, 10179 Berlin.
Einlass ist wie immer ab 19:15 Uhr, los geht’s um 20:00 Uhr, selbstverständlich auch im Stream unter http://c-base.org. Der Eintritt ist frei.
Hashtag:
Der Hashtag für den nächsten Abend ist npa080. Gebraucht ihn gerne und reichlich, auch für Feedback und Fragen, wenn Ihr nicht vor Ort sein könnt.

Die Videos des letzten Abends konnten wir leider noch nicht auf unserer Internetseite einstellen. Zu sehen sind sie aber selbstverständlich auf der c-base-Seite.
Volker Grassmuck hat zu seinem Vortrag weitere Materialien zur Verfügung gestellt.

9. Veranstaltungen mit der DigiGes

Evangelische Akademie Tutzing: Digitalcourage, 01. – 03. März 2019

Bündnis gegen das neue Brandenburgische Polizeigesetz:
Außerparlamentarische Anhörung zum neuen Polizeigesetz 02. März 2019, 15 Uhr, Potsdam Museum

10. Deine Daten Deine Rechte

Im Report „Digitalisierung braucht Zivilgesellschaft, Wie Digitalisierung im sozialen Sektor gelingen kann“, ist ein Hinweis auf unser Projekt DeineDatenDeineRechte enthalten:
„Das Informationsportal Deine Daten Deine Rechte (…) besticht durch Übersichtlichkeit, anschauliche und interaktive Aufbereitung komplexer Themen (wie bspw. über Videos und Browserspiele) und Erklärungen in einfacher Sprache.“

11. Digiges in den Medien

Uploadfilter im Urheberrecht
https://www.deutschlandfunk.de/eu-urheberrecht-eine-ablehnung-des-gesamten-pakets-ist-die.694.de.html?dram:article_id=441165

Uploadfilter in der Bekämpfung des Terrorismus
https://netzpolitik.org/2019/uploadfilter-gegen-terroristische-online-inhalte-wie-das-eu-parlament-um-seine-position-ringt/

Rechtsprechung zu IP-Adressen von Posteo
taz vom 02.02.2019: Zum Überwachen gezwungen
http://www.taz.de/!5567120/

Polizeigesetze
https://radiocorax.de/grundrechte-in-gefahr-ueber-die-gesellschaftlichen-bedingungen-der-verschaerfung-bundesweiter-polizeigesetze/

Kommentare deaktiviert für Newsletter Februar 2019

Offener Brief an deutsche Abgeordnete im LIBE-Ausschuss

Sehr geehrte Abgeordnete,

wir möchten Ihnen unsere tiefgreifende Besorgnis über den Entwurf der EU-Kommission für eine Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte mitteilen. Der ausufernde Anwendungsbereich, die unsachgemäße Definition terroristischer Inhalte, technisch höchst zweifelhafte automatische Zensurmechanismen und die mit der Übertragung der Rechtsdurchsetzung an Dritte verbundene Einschränkung des Rechtswegs stellen eine ernsthafte Bedrohung für Meinungsfreiheit, Informationsfreiheit, Vertraulichkeit der Kommunikation und die Vielfalt der medialen Landschaft des Internets dar.

Ziel terroristischer Handlungen ist, durch die Verbreitung von Schrecken das Vertrauen in die offene Gesellschaft zu zerstören und so Meinungsfreiheit und Demokratie aufzuweichen.

Umso dringender ist es nötig, demokratische Grundrechte aufrechtzuerhalten.

Wir, die unterzeichnenden Organisationen, bitten Sie, die Verabschiedung dieses Entwurfes zu verhindern.

1. Anwendungsbereich

Der extrem weite Anwendungsbereich des Verordnungsentwurfs erfasst nicht etwa nur große soziale Netzwerke, sondern auch eine Vielzahl kleiner Websites, etwa alle Blogs und Nachrichtenportale mit Kommentarfunktion, Foren, Videostreamingdienste, File-Sharing- und auch der Öffentlichkeit nicht zugängliche Cloud-Dienste. Kleinere Anbieter und vor allem nichtkommerzielle Dienste haben nicht die technischen und personellen Möglichkeiten, Löschungen binnen einer Stunde durchzuführen oder hochkomplexe Filtersysteme einzurichten. Viele wären deshalb gezwungen, ihre Angebote für benutzergenerierten Content einzustellen oder die Ausführung an größere Digitalkonzerne auszulagern. Das würde das weitere Anwachsen von monopol-ähnlichen Unternehmen fördern und sich stark bremsend auf die Entwicklung der Digitalwirtschaft sowie auf nichtkommerzielle Angebote auswirken.

2. Definition terroristischer Inhalte

Die Definition terroristischer Inhalte in Art. 2 greift auf die von Menschenrechtsorganisationen stark kritisierte RL 2017/541 zurück, mit der EU-weite Vorgaben für Terror-Straftatbestände eingeführt wurden. Von ihr können auch Formen zivilen Ungehorsams, zum Beispiel Blockadeaktionen, erfasst sein. Der Verordnungsentwurf vermindert die Anforderungen noch stärker, indem er auf jeden Vorsatz verzichtet und etwa „Methoden für das Begehen terroristischer Straftaten“ als terroristischen Inhalt qualifiziert. Dadurch können auch journalistische Aktivitäten oder solche von Menschenrechtsorganisationen betroffen sein, die sich mit dem Thema Terrorismus beschäftigen. Bemerkenswerter Weise halten der UN-Sonderberichterstatter für Meinungsfreiheit, der UN-Sonderberichterstatter für das Recht auf Privatheit und die UN-Sonderberichterstatterin für den Grundrechtsschutz im Anti-Terror-Kampf es für nötig, die EU-Organe darauf hinzuweisen, dass auch Inhalte, die den Staat schockieren, angreifen und stören, von der Meinungs- und Informationsfreiheit gedeckt sind und zum demokratischen Diskurs gehören.

3. Proaktive Maßnahmen

Nach Art. 6 könnten Anbieter von Hosting-Diensten dazu verpflichtet werden, Uploadfilter zu implementieren, die bereits das Hochladen von als terroristisch erkannten Inhalten verhindern. Wenn Plattformbetreiber durch den Staat beauftragt werden, Inhalte vor der Veröffentlichung zu kontrollieren und gegebenenfalls eine Veröffentlichung zu verhindern, ist das eine Vorzensur, die das Grundgesetz in Art. 5 verbietet. Allgemeine Überwachungspflichten für Plattformen sind außerdem durch Art. 15 der eCommerce-Richtlinie verboten.

Die Treffsicherheit von Uploadfiltern ist nicht gewährleistet: Die Plattform Youtube, die sie bereits auf freiwilliger Basis einsetzt, sperrte zehntausende Videos, die Kriegsverbrechen des IS dokumentierten, weil in ihnen IS-Flaggen zu sehen waren. Automatisierte Filter sind nicht in der Lage, den Kontext von Ideen und Äußerungen einzuschätzen und daher massiv fehleranfällig. Dabei ist jeder einzelne legale Inhalt, der fehlerhaft gelöscht wird, eine unzulässige Verletzung der Meinungsfreiheit. Eine Fehlerquote, die jeder Filter aufweist, ist hier inakzeptabel.

Außerdem bergen solche Mechanismen ein enormes Missbrauchspotenzial, weil durch kleine Änderungen der Algorithmen statt terroristischer Propaganda auch unbequeme Postings gefiltert werden können. In einer Welt, in der soziale Netzwerke eine entscheidende Rolle für die Meinungsbildung spielen, wäre das fatal.

4. Übertragung der Rechtsdurchsetzung an Private

Nach der Verordnung sollen Inhalte nicht nur auf behördliche Anordnung gelöscht werden, sondern es besteht des weiteren die Möglichkeit, dass nationale Behörden Inhalte dem Hostinganbieter melden, damit dieser einen Verstoß gegen seine Nutzungsbedingungen prüft (Art. 5 VO-Entwurf). Private Hostinganbieter können im Rahmen ihres virtuellen Hausrechts durch Nutzungsbedingungen deutlich stärker als staatliche Akteure regeln, welche Inhalte gepostet werden dürfen. Auf diesem Weg könnten Behörden versuchen, Plattformbetreiber zu instrumentalisieren, um unliebsame Beträge verschwinden zu lassen, für deren Löschung auf Basis nationalen oder internationalen Rechts keine Grundlage bestünde. Besonders gefährlich ist dies, weil als Rechtsmittel gegen die Löschung zunächst eine Beschwerde beim Hoster vorgesehen ist. Der Entwurf stellt nicht klar, inwiefern ein Inhalteanbieter gegen eine Meldung verwaltungsgerichtlich vorgehen kann und ob eine gerichtliche Überprüfung auf Wahrung von Grundrechten stattfindet. Das ist skandalös und steht in eklatantem Widerspruch zum Erfordernis effektiven Rechtsschutzes nach der EU-Grundrechtecharta. Dieses tiefgreifende Risiko der Umgehung von Grundrechten ist durch nichts gerechtfertigt: Hält eine Behörde es nicht für erforderlich, einen Post via Löschungsanordnung blockieren zu lassen, so besteht kein Anlass, den Hostinganbieter zu einer Löschung auf abweichender Rechtsgrundlage anzuregen.

Wir fordern Sie daher auf, den Entwurf abzulehnen.

Mit freundlichen Grüßen

Digitale Gesellschaft
Digitalcourage
Chaos Computer Club
Gesellschaft für Informatik
Aktion Freiheit statt Angst
Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung
Wikimedia Deutschland


Kommentare deaktiviert für Offener Brief an deutsche Abgeordnete im LIBE-Ausschuss