Archive | Blog RSS feed for this section

Stellungnahme der Digitalen Gesellschaft e. V. zur Konsultation des Bundesministeriums der Justiz und für Verbraucherschutz zu Interoperabilität und Datenportabilität bei sozialen Netzwerken

Stellungnahme als pdf

I. Zusammenfassung

Die Digitale Gesellschaft e.V. befürwortet Interoperabilität als Ziel der Technikgestaltung. Interoperabilität ist ein Erfolgsprinzip des freien und offenen Internets. Jedoch wirft die Forderung nach Interoperabilität sozialer Netzwerke [1] eine Reihe von Unwägbarkeiten für die Rechte der Nutzenden auf. Angesichts dieser offenen Fragen empfehlen wir die pragmatische Förderung einer quelloffenen und dezentralen Dienstelandschaft durch öffentliche Förderprogramme und die Durchsetzung bestehender Regeln. Von einer gesetzlichen Verpflichtung zur Interoperabilität raten wir derzeit ab.

II. Interoperabilität: Offene Fragen

1. Gegenstandsbereich

Zunächst wirft die Einladung zur Konsultation die Frage auf, welche Arten von Diensten unter den Begriff soziale Netzwerke fallen. Eine Legaldefinition findet sich in § 1 Absatz 1 Satz 1 Netzwerkdurchsetzungsgesetz (NetzDG):

Dieses Gesetz gilt für Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen (soziale Netzwerke).

Da mit dem NetzDG andere Ziele verfolgt werden als mit einer Stärkung von Interoperabilität, lässt sich diese Definition nicht ohne Weiteres auf den hiesigen Themenkomplex übertragen.

Mit dem Tatbestandsmerkmal „beliebige Inhalte“ werden etwa all jene Dienste ausgenommen, die sich auf bestimmte Themenbereiche begrenzen [2]. Aus der Einbeziehung von Businessnetzwerken zu dieser Konsultation schließen wir, dass die ausschließliche Erfassung inhaltsbeliebiger Plattformen nicht angestrebt ist. Damit lässt sich eine recht große Bandbreite von Diensten mit unterschiedlichen sozialen Funktionen unter den Begriff soziale Netzwerke fassen, die gegenwärtig bereits stark nach verschiedenen Lebensbereichen ausdifferenziert sind: Neben denjenigen sozialen Netzwerken, die nicht auf bestimmte Zwecke oder Themen beschränkt sind, ermöglichen z.B. auch Verkaufsplattformen, Fachforen, Portale zur Partnersuche, Online-Spiele und Businessnetzwerke ihren Nutzenden, Inhalte zu teilen oder der Öffentlichkeit zugänglich zu machen. Vor diesem Hintergrund stellt sich zunächst die Frage, für welche sozialen Netzwerke Interoperabilität aus Sicht der Verbraucherinnen und Verbraucher gewünscht ist. Eine Interoperabilität sämtlicher genannter Dienste ist für Nutzende kaum erstrebenswert. Das wird unmittelbar deutlich, wenn man etwa an eine mögliche Verknüpfung von Dating-Portalen mit Businessnetzwerken denkt.

Andererseits verlagert sich eine Vielzahl von Funktionen, die zuvor durch andere Dienste erfüllt wurden, etwa Newsletter oder Parteiwerbung, auf die im Alltag von Verbraucherinnen und Verbrauchern besonders relevanten Messenger-Dienste. § 1 Absatz 1 Satz 3 NetzDG klammert diese aus dem Anwendungsbereich des Gesetzes bewusst aus. Da die Interoperabilität von Messengern in den Fokus der Politik geraten ist, stellt sich die Frage, ob diese etwa von einer möglichen Interoperabilitätsverpflichtung erfasst sein sollen. Katarina Barley hat als Bundesministerin der Justiz und für Verbraucherschutz wiederholt gefordert, dass es möglich sein müsse, „dass zum Beispiel WhatsApp-Nutzer auch mit den Nutzern anderer Messenger-Dienste wie zum Beispiel Threema oder Signal kommunizieren können“[3]. Die Neufassung des Europäischen Kodex für die elektronische Kommunikation sieht unter anderem die Möglichkeit vor, interpersonelle Kommunikationsdienste unter bestimmten Umständen zur Interoperabilität zu verpflichten.

Vor diesem Hintergrund meinen wir, dass für eine ausführliche Erörterung der Vor- und Nachteile von Interoperabilität eine präzise Begrenzung des Gegenstandsbereichs notwendig ist.

2. Interoperabilität und verwandte Konzepte

Auch der Begriff Interoperabilität ist nicht eindeutig. Interoperabilität meint ganz allgemein die Fähigkeit von Systemen, untereinander zu kommunizieren und die kommunizierten Informationen nutzen zu können. Mit Blick auf soziale Netzwerke bzw. Messenger könnte Interoperabilität praktisch unter anderem bedeuten, dass Nutzende eines Dienstes unmittelbar mit denen eines anderen Dienstes kommunizieren können, da die Dienste serverseitig einheitliche Protokolle und Standards verwenden. Eine weitere von mehreren Möglichkeiten wäre, Interoperabilität herzustellen, indem ein Dienst sich per Anwendungsschnittstelle (API) öffnet und damit zumindest für andere Clients ansprechbar ist.

Insbesondere in der Open-Source-Welt wird der Begriff der Föderation zum Teil überlappend mit dem der Interoperabilität verwendet. Föderierte Dienste im engeren Sinne sind solche, die aus verschiedenen eigenständigen Instanzen mit eigenen Servern und jeweils eigenen Nutzenden bestehen. Diese föderierten Instanzen lassen per Protokoll Kommunikation untereinander zu, sind also unmittelbar interoperabel, solange sie nicht in geschlossenen Netzwerken (z. B. Unternehmensnetzen) betrieben werden. Ein oft mit Föderation verbundenes Ziel ist Dezentralität. Zumindest in der Open-Source-Welt geht mit der Forderung nach Föderation zudem die nach Quelloffenheit der verwendeten Protokolle, Standards sowie der Server- und Client-Anwendungen bzw. ihrer Bestandteile einher.

Das Gegenmodell zu föderierten sind zentralisierte Dienste. Sie sind das derzeit dominante Architekturprinzip bei sozialen Netzwerken und Messengern. Zentralisierte Dienste können z.B. über Anwendungsschnittstellen eine gewisse Interoperabilität herstellen. Auch zentralisierte Dienste können quelloffen sein. Ein Beispiel hierfür ist der Messenger Signal.

Jede Form der Regulierung von Interoperabilität sollte die verschiedenen Bedeutungen und Formen von Interoperabilität und ihr Verhältnis zu anderen Gestaltungszielen reflektieren.

3. Regulierungsziele

Mit Interoperabilität soll laut der Einladung zur Konsultation der Problemkreis rund um Netzwerkeffekte, Nutzungszwänge und Lock-in-Effekte adressiert werden, wobei das Datenschutzniveau gleich hoch bleiben soll. Im Ergebnis soll es dadurch zu mehr Selbstbestimmung und Freiheit bei der Anbieterwahl sowie zu positiven Auswirkungen auf das Marktangebot kommen.

Gerade im Bereich Instant Messaging sind diese Probleme besonders relevant. Derzeit beobachten wir eine Nutzungskonzentration bei wenigen Instant Messengern, obwohl es in diesem Bereich vergleichsweise viele Alternativen gibt. Für viele Verbraucherinnen und Verbraucher kann das zu einem faktischen Nutzungszwang führen. Auch Unternehmen und öffentliche Stellen sehen sich teilweise gezwungen, die dominanten Instant-Messenger zur internen Kommunikation zu dulden oder selbst zur Ansprache zu benutzen. Es entwickeln sich zentralisierte Quasi-Infrastrukturen, die immer schwieriger zu kontrollieren und zugleich einflussreiche Gatekeeper für die öffentliche Meinungsbildung sind. Mehr Freiheit bei der Anbieterwahl ist aus diesem Grund wünschenswert.

Nicht zuletzt ist der Einsatz der meistverbreiteten sozialen Netzwerke und Instant Messenger oft nicht mit geltendem Datenschutzrecht vereinbar. Von der „Wahrung eines hohen Datenschutzniveaus“ – wie im Einladungsschreiben zur Konsultation – kann deshalb aus unserer Sicht kaum die Rede sein. Der starke Anreiz zur Nutzung der meistverbreiteten Dienste schwächt daher massenhaft den Datenschutz und die Privatsphäre. Die Frage muss deshalb auch lauten, ob Interoperabilität unter Umständen eine Rolle bei der Stärkung des Datenschutzes spielen kann oder diesen durch ungewollte Wechselwirkungen weiter schwächen könnte.

Eine wie auch immer geartete Interoperabilität von Messengern müsste sich aus unserer Sicht daran messen lassen, was sie zur Lösung der hier dargestellten Probleme beiträgt.

4. Datenschutz und Privatsphäre

Grundsätzlich eröffnet eine Interoperabilität im Sinne föderierter Dienste die Chance auf eine dezentralere Datenhaltung, was aus Datenschutzsicht sehr zu begrüßen ist. Jedoch schließt auch Föderation eine Nutzungskonzentration bei wenigen Instanzen nicht aus.

Eine Verpflichtung bestehender Dienste zur Interoperabilität auf Basis einheitlicher Protokolle könnte jedoch auch dazu führen, dass dominante Dienste mit einem vergleichsweise schlechten Datenschutzstandard die Chance bekommen, Kommunikationsdaten über Nutzende zu erhalten, die sich bislang bewusst für datenschutzfreundliche Dienste, womöglich mit einem völlig anderen Geschäftsmodell oder nicht-kommerziellen Hintergrund, entschieden haben.

Mit einer Verpflichtung bestehender Dienste zur Interoperabilität auf Basis einheitlicher Protokolle ginge auch die Einigung auf eine gemeinsame Kennung(Identifier), mit der Nutzende diensteübergreifend angesprochen werden könnten, einher. Die Möglichkeit, unterschiedliche Dienste mit unterschiedlichen Identifiern zu nutzen (z. B. Telefonnummer, frei gewählter Nutzername, E-Mail-Adresse) ist jedoch eine wesentliche Maßnahme zur Durchsetzung des datenschutzrechtlichen Grundsatzes der Zweckbindung. Unterschiedliche Identifier grenzen zudem Räume ab, innerhalb derer unbeobachtete und private Kommunikation möglich ist. Bereits ohne Interoperabilität ist die verbreitete Nutzung der Mobiltelefonnummer als universeller Identifier vor allem bei Messengern ein Problem – zumal hierfür technisch keine Notwendigkeit besteht.

Ein weiteres Problem des Szenarios einer Interoperabilität bestehender Dienste ist, dass Dienste sich ggf. auf den kleinsten gemeinsamen Nenner beim technischen Datenschutz einigen müssten, um untereinander interoperabel zu sein. Das kann zu Rückschritten beim Datenschutz bestehender Dienste und zur Verlangsamung der Entwicklung und Adaption datenschutzfreundlicher Technologien führen [4].

Einer der wichtigsten Aspekte in diesem Zusammenhang ist die Ende-zu-Ende-Verschlüsselung. Sie spielt insbesondere zum Schutz der Privatheit der Kommunikation eine wichtige Rolle. Wir denken dabei vor allem an Messenger bzw. Messenger-Funktionalitäten von sozialen Netzwerken. Einige zentralisierte Messengerdienste haben in den vergangenen Jahren erreicht, was föderierten Diensten wie E-Mail bis heute nicht gelungen ist: Sie bieten standardmäßig eine integrierte, leicht zu bedienende und für die Nutzenden quasi unsichtbare Ende-zu-Ende-Verschlüsselung der Nachrichteninhalte. Einige Stimmen argumentieren, dass solche Fortschritte bei zentralisierten Diensten leichter zu erreichen sind, da der Umweg über Standardisierung und die Adaption der beschlossenen Standards entfällt. Vor allem aber wird an der Ende-zu-Ende-Verschlüsslung das Problem des kleinsten gemeinsamen Nenners deutlich: Bei Interoperabilität bestehender Dienste wäre offen, ob die Ende-zu-Ende-Verschlüsselung beibehalten würde, vor allem wenn diese nicht auf dasselbe (Verschlüsselungs-)Protokoll setzen.

5. Umsetzbarkeit

Eine der regulatorischen Herausforderungen einer allgemeinen gesetzlichen Pflicht zur Interoperabilität oder einer behördlichen Befugnis, Dienste zur Interoperabilität zu verpflichten, würde darin bestehen, festzulegen, welche Dienste erfasst sein sollen (vgl. 1.).

Einer unmittelbaren gesetzlichen Interoperabilitätsverpflichtung könnte die dynamische Entwicklung von Kommunikationsdiensten, sozialen Netzwerken und deren Nutzungen entgegenstehen, die mit hoher Wahrscheinlichkeit eine ständige Novellierung notwendig machen würde.

Im Falle der symmetrischen Verpflichtung sämtlicher Dienste einer bestimmten Art wäre mit einer Erhöhung der Markteintrittshürden zu rechnen, was sich auf die Breite des Marktangebots eher negativ auswirken würde. Standards und Regulierungen begünstigen oftmals größere Anbieter, denen es leichter fällt, Ressourcen für die Umsetzung abzustellen. Es sollte nicht aus dem Blick verloren werden, dass die dynamische Fortentwicklung von Diensten im Internet, die kaum Standardisierung unterliegen, weitestgehend als Erfolgsmodell gilt. Aus unserer Sicht spricht dies dafür, eine Verpflichtung zur Interoperabilität – wenn überhaupt – auf bestimmte, nachweislich marktdominante Anbieter zu beschränken und den übrigen freizustellen, ob sie eine Vernetzung ihrer Dienste mit diesen Anbietern ermöglichen wollen.

Interoperabilität verlangt ein gewisses Maß an Einigung auf einen gemeinsamen technischen Standard, zumindest, was die Schnittstellen anbelangt. Dass eine solche Standardisierung schwierig zu verwirklichen sein kann, zeigt ein Blick auf das Recht auf Datenübertragbarkeit aus Artikel 20 Datenschutzgrundverordnung (DSGVO). Dieses gewährleistet die Herausgabe und Übermittlung der Daten in einem gängigen maschinenlesbaren Format. Ein Jahr nach Inkraftreten der DSGVO ist es jedenfalls nicht zur Einigung auf einen Standard gekommen.

6. Geeignetheit und Wirksamkeit

Dass stärkere Interoperabilität der Dienste zur Lösung der genannten Probleme beitragen wird, steht aus unserer Sicht nicht fest. Die derzeitigen Netzwerkeffekte der marktführenden Dienste in den Bereichen Instant Messaging und inhaltsbeliebiger sozialer Netzwerke könnten zwar vermindert werden. Denn der Effekt, dass die Nutzung eines Dienstes für die nutzende Person vorteilhafter wird, je mehr andere Personen den Dienst nutzen, kann abnehmen, wenn eine diensteübergreifende Kommunikation ermöglicht wird. Dass es deshalb zum Wechsel vieler Nutzenden und damit zu einer Verringerung der Nutzerkonzentration kommt, ist jedoch keineswegs gesichert. So ist nicht gesagt, dass damit an der starken Machtstellung einiger Anbieter gerüttelt würde. Je nach technischer Umsetzung von Interoperabilität ist mit Einschränkungen, etwa derart, dass nicht alle Arten von Inhalten ausgetauscht werden können, zu rechnen, die die Kommunikation zwischen Nutzenden innerhalb und außerhalb des Netzwerks ebenfalls unattraktiv machen können.

Ein aus unserer Sicht erstrebenswerter Wechsel von Nutzenden hin zu datenschutzfreundlichen Angeboten oder deutliche Verbesserungen des Datenschutzniveaus bei den führenden Anbietern ist keine notwendige Folge von Interoperabilität. Insofern haben wir Zweifel daran, dass eine Verpflichtung von Diensten zur Interoperabilität geeignet ist, die identifizierten Probleme zu beheben.

III. Ideen für eine vielfältigere und offenere Dienstelandschaft

Wie gezeigt ist das Thema Interoperabilität und Regulierung mit vielen Unwägbarkeiten verbunden. Neben der bereits angeratenen weiteren Begriffsklärung und Beratung zum Thema empfehlen wir die Förderung einer offenen und dezentralen Dienstelandschaft – ohne das Gestaltungsziel der Interoperabilität absolut zu setzen.

Erstens sollten mittels öffentlicher Förderung

  • Open-Source-Projekte im Bereich sozialer Netzwerke und Messenger,
  • Auditierungen von bestehenden Open-Source-Projekten im Bereich sozialer Netzwerke und Messenger (und ihren Bestandteilen wie Bibliotheken und Protokolle) sowie
  • der Einsatz der daraus resultierenden Dienste in ausgewählten Feldern (vor allem im öffentlichen Bereich)

unterstützt werden. Bei Entwicklung und Einsatz sollte auf bewährte und verbreitete Standards gesetzt und Neuentwicklungen für gelöste Probleme vermieden werden. Diese – zu konkretisierenden – Schritte können alternativen, quelloffenen und auch föderiert ausgestalteten Diensten langfristig zu mehr Konkurrenzfähigkeit und weiterer Verbreitung verhelfen. Im Ergebnis kann eine dezentralere Dienstelandschaft entstehen, die viele der Fallstricke vermeidet, die mit der Nutzungs- und Machtkonzentration bestehender Dienste im Bereich sozialer Netzwerke und Messenger einhergehen. Eine solche öffentliche Förderung könnte nicht nur für die Nutzenden, sondern auch für die Stärkung der europäischen Digitalwirtschaft reizvoll sein.

Unbestritten ist das Fördern von Alternativen eine kleinschrittige und auf langfristige Wirkungen abzielende Strategie. Jedoch ist sie deshalb nicht von der Hand zu weisen. Auch im Umweltbereich ist das Fördern von Nischen eine anerkannte Regulierungsstrategie [5]. Darüber hinaus hat dieses Vorgehen den Vorteil, dass die Instrumente hierzu bereits vorhanden sind. Nicht zuletzt sind hierbei – im Gegensatz zu einer gesetzlichen Interoperabilitätsverpflichtung – weniger unbeabsichtigte Nebeneffekte zu erwarten.

Zweitens sollte die öffentliche Förderung durch die Ausschöpfung des bestehenden Rechtsrahmens flankiert werden. Hier ist insbesondere das Datenschutzrecht zu nennen. Eine konsequente Durchsetzung des Datenschutzrechts im Bereich sozialer Netzwerke und Messenger könnte nicht nur das Datenschutzniveau bei den bestehenden Diensten anheben, sondern auch die Nutzung DSGVO-konformer Alternativen für Organisationen und Nutzende attraktiver machen. Die Durchsetzung der DSGVO ist im Moment vor allem ein Ressourcenproblem: Es braucht eine bessere Ausstattung der Vertretung der Betroffenen, d. h. der Aufsichtsbehörden, der Verbraucherschützer sowie zivilgesellschaftlicher Gruppen, um die offenkundigen Rechtsverstöße der dominanten Akteure zu thematisieren und zu verfolgen.

[1] Aus Gründen der Fokussierung klammert die vorliegende Stellungnahme den ebenfalls zur Konsultation gestellten Aspekt der Datenportabilität aus.

[2] Vgl. Erbs/Kohlhaas/Liesching: NetzDG § 1 Rn. 6.

[3] ZDF heute: Barley: WhatsApp für andere Dienste öffnen. 23.06.2018. https://www.zdf.de/nachrichten/heute/bundesjustizministerin-katarina-barley-will-whatsapp-fuer-andere-dienste-oeffnen-100.html.

[4] Vgl. Signal: Reflections: The ecosystem is moving, 10.05.2016. https://signal.org/blog/the-ecosystem-is-moving/.

[5] Vgl. Umweltbundesamt: Gelebte Nachhaltigkeit: von der Nische in den Mainstream, 25.09.2017. https://www.umweltbundesamt.de/gelebte-nachaltigkeit-von-der-nische-in-den.

Welchen Schutz brauchen sensible Gesundheitsdaten?

Elektronische Gesundheitskarte mit elektronischer Patientenakte und elektronische Gesundheitsakte

Das Terminservice- und Versorgungsgesetz (TSVG), das der Bundestag am 14. März 2019 beschlossen hat, verpflichtet die Krankenkassen, spätestens ab 2021 den Versicherten elektronische Patientenakten anzubieten. Auf die darin gespeicherten Daten sollen die Versicherten auch mittels Smartphone oder Tablet zugreifen können. Sie sollen also auch ohne Arzt Zugriff auf ihre Daten haben.
Was bedeutet diese Aktualisierung der elektronischen Gesundheitskarte (eGK) für die Versicherten? Wollen sie ihre Gesundheitsdaten überhaupt auf zentralen Servern speichern lassen? Worin unterscheidet sich die ePatientenakte der eGK von der elektronischen Gesundheitsakte, die viele Krankenversicherungen den Versicherten bereits anbieten? Read More…

Newsletter Mai 2019

Liebe Freunde und Freundinnen der DigiGes,

heute möchten wir Euch mit dem Newsletter auf aktuelle Termine aufmerksam machen. Beim Netzfest, dem digitalen Volksfest in Berlin am 4. und 5. Mai 2019, haben wir einen Stand. Wir freuen uns über Eure Besuche. Dort gibt es auch zwei Vorträge von uns.
Auf der anschließenden re:publica referieren wir ebenfalls.
Der Netzpolitische Abend fällt aus diesen Gründen im Mai aus. Wir freuen uns auf den Termin im Juni.

1. Netzfest
2. re:publica
3. Terror Content Regulation: Die Vorschläge von Kommission und LIBE-Ausschuss im Überblick
4. Netzpolitischer Abend
5. Netzpolitischer Abend – Spezial
6. Hinweise
7. DigiGes in den Medien

1. Netzfest

Am 4. und 5. Mai 2019 findet in Berlin, im Park am Gleisdreieck, wieder das Netzfest statt. Wir haben einen Infostand, bieten Informationsmaterialien und freuen uns über Besuche von und Gespräche mit Euch.

Folgende Veranstaltungen mit Vertretern und Vertreterinnen der DigiGes finden statt:

Sensible Gesundheitsdaten brauchen besonderen Schutz! – Zur Digitalisierung im Gesundheitssystem – Elke Steven

Unsere Medien mitgestalten. Bürgerbeteiligung zur Zukunft öffentlich-rechtlicher Medien – Volker Grassmuck

2. re:publica

Vom 6. bis 8. Mai findet die re:publica statt. Die DigiGes ist dort ebenfalls vertreten und informiert in einem Talk über die geplante EU-Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte:

Terrorfilter?! Hintergrund und Analyse der geplanten EU-Terror-Content-Verordnung – Elisabeth Niekrenz

3. Terror Content Regulation: Die Vorschläge von Kommission und LIBE-Ausschuss im Überblick

In einem ausführlichen Blogbeitrag hat die DigeGes die Entwürfe von Kommission und Parlament zu einer Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte analysiert. Welche Probleme die Entwürfe für Meinungs- und Informationsfreiheit mit sich bringen und was sie Anbieterinnen und Anbietern von Hostingdiensten abverlangen, kann hier nachgelesen werden:

Außerdem stellt die DigiGes gemeinsam mit Tomas Rudl und Ingo Dachwitz von Netzpolitik.org im Netzpolitik Podcast, Folge 177 – Was heißt hier eigentlich Terrorpropaganda? die geplante Verordnung vor, gibt Einblicke in die Hintergründe und übt Kritik. https://netzpolitik.org/2019/npp172-was-heisst-hier-eigentlich-terrorpropaganda/

4. Netzpolitischer Abend

Parallel zur re:publica wollen wir keinen Netzpolitischen Abend organisieren. Deshalb findet der nächste NPA erst am 4. Juni 2019 statt. An diesem Abend werden wir einen Rückblick auf ein Jahr Datenschutzgrundverordnung organisieren. Das wird spannend werden. Merkt Euch den Termin vor!

Die Videos vom 81. Netzpolitischen Abend im April sind auf unserer Seite eingestellt: https://digitalegesellschaft.de/2019/03/81-netzpolitischer-abend/

Alle vorherigen Videos der Netzpolitischen Abende können auf youtube weiterhin angeschaut werden:

5. Netzpolitischer Abend – Spezial

Am 16.04.2019 haben wir in Kooperation mit ALEX Berlin einen Netzpolitischen Abend Spezial zur Digitalpolitik der EU ausgerichtet. Dabei diskutierten Susanne Zels (CDU), Dr. Laura Sophie Dornheim (Grüne), Matthias Ecke (SPD), Juliane Hüttl (FDP), Konstanze Kriese (Linke) und Dr. Patrick Breyer (Piraten) anlässlich der anstehenden Wahl zum Parlament Fragen rund um Datenschutz und Plattformregulierung in der EU. Es moderierte John Weitzmann. Die Diskussion gibt es hier zum Nachschauen.

6. Hinweise

Martin Baer und Claus Wischmann haben einen Film produziert: „Der illegale Film„. Der Film berührt nicht nur das Thema Urheberrechtsreform, sondern auch Fragen wie Video-Überwachung, Kontrolle über eigene Daten (Fotos) auf sozialen Netzwerken etc. Martin Baer schrieb uns, weil er seit langem Abonnent des Newsletters ist. Ein sehenswerter Film.

Selbstbestimmt Digital organisiert mehrere Veranstaltungen zur Europawahl: Europawahl 2019 – unsere Entscheidung? Wie Algorithmen, Fake News und Social Bots die digitale Öffentlichkeit beeinflussen
Dies geschieht auch in Zusammenarbeit mit dem Quartiersmanagement Pankstraße, mit dem wir in unserem Projekt „Sicher und Bewusst im Netz“ in der Schule zusammenarbeiten.
Termine und Veranstaltungsorte

08.05.2019, 18:30 – 21:00 Uhr Quartiersmanagement Reinickendorfer Straße / Pankstraße
Prinz-Eugen-Straße 1, 13347 Berlin
13.05.2019, 18:30 – 21:00 Uhr Berliner Landeszentrale für politische Bildung
Hardenbergstraße 22-24, 10623 Berlin
21.05.2019, 18:30 – 21:00 Uhr Quartiersmanagement Reinickendorfer Straße / Pankstraße
Prinz-Eugen-Straße 1, 13347 Berlin

7. Digiges in den Medien

https://www.heise.de/tp/features/EU-Parlament-stimmt-fuer-Terror-Content-Verordnung-4402019.html

EU-Parlamentsausschuss: Keine Uploadfilter gegen Terror, aber kurze Löschfrist

NPP172: Was heißt hier eigentlich Terrorpropaganda?

Netzpolitischer Abend Spezial zur EU-Wahl am 16. April

https://www.unicum.de/de/studentenleben/zuendstoff/eu-urheberrechtsreform-artikel-13 

Terror Content Regulation: Die Vorschläge von Kommission und LIBE-Ausschuss im Überblick

Mit einer neuen Verordnung möchte die EU-Kommission terroristische Inhalte auf Internetplattformen eindämmen. Darin sind Befugnisse vorgesehen, die leicht verwendet werden können, um anderweitig unerwünschte Inhalte EU-weit aus dem Netz zu verdrängen. Zudem wird den Plattformen einiges abverlangt: Sie sollen Inhalte binnen einer Stunde nach einer behördlichen Anordnung sperren und durch sogenannte proaktive Maßnahmen terroristische Inhalte selbst verhindern.

Von der Selbstregulierung zur Verordnung

Die geplante Verordnung ist nicht der erste Schritt zum Vorgehen gegen terroristische Inhalte. 2015 startete die EU-Kommission das EU-Internetforum (Pressemitteilung der Kommission vom 03.20.2015), einen Kooperationsrahmen zwischen der Kommission und Vertretern der Internetwirtschaft. Mittlerweile sind die meisten großen Internetdienstleister beteiligt. Auf deren Initiative wird seit 2016 an einer Datenbank gearbeitet, die von den Unternehmen gemeinschaftlich mit Fingerprints als terroristisch klassifizierter Inhalte gefüttert wird, die Database of Hashes (Pressemitteilung der Kommission vom 06.12.2017). Ebenfalls 2015, in Reaktion auf die Anschläge in Frankreich, richtete Europol eine Meldestelle für Internet-Inhalte, die Internet Referral Unit (IRU), ein, wie Netzpolitik.org berichtete. Diese kann Inhalte mit der Empfehlung, sie wegen eines Verstoßes gegen Nutzungsbedingungen zu sperren, an Plattformen melden. Im April 2018 forderten Seehofer und der französische Innenminister in einem Schreiben an EU-Kommission ein schärferes Vorgehen gegen Terror-Propaganda im Netz: Terroristische Inhalte sollen binnen einer Stunde nach Veröffentlichung entfernt werden, dies müsse durch Sanktionsmechanismen sichergestellt werden. Dabei sollen terroristische Inhalte nur den Anfang machen, zukünftig wünschen sich die Innenminister, dass auch gegen sonstige rechtswidrige Inhalte mit diesen Mitteln vorgegangen wird.

Im September 2018 veröffentlichte die Kommission einen Verordnungsentwurf, der das umzusetzen versucht: Die Sperrung auf Anordnung mit einstündiger Frist, Uploadfilter und ein Rechtsrahmen für Meldungen analog der Referrals von Europol.

Der federführende Ausschuss des europäischen Parlaments für bürgerliche Freiheiten, Justiz und Inneres (LIBE) hat einige Verbesserungen vorgeschlagen, unter anderem Ausnahmen für journalistische Inhalte geschaffen und die Verpflichtung zu Uploadfiltern gestrichen. Auch dieser Entwurf kann aber Aufrufe zu zivilem Ungehorsam als terroristische Inhalte erfassen und behält die einstündige Sperrfrist bei. Am 17.04.2019 wird im Parlament über die Ausschussfassung abgestimmt. Nach den Wahlen werden sich Kommission, Rat und Parlament in den Trilogverhandlungen um eine Einigung bemühen.

Im Folgenden werden der Entwurf der Kommission und die Änderungsvorschläge des LIBE-Ausschusses kritisch vorgestellt.

Der Kommissionsentwurf

Der Text sieht im Kern drei Instrumente zu Verhinderung der Verbreitung als terroristisch klassifizierter Inhalte vor: die verbindliche Entfernungsanordnung (Artikel 4), unverbindliche Meldungen (Artikel 5) und proaktive Maßnahmen (Artikel 6).

Entfernungsanordnung: Stundenfrist und europaweiter Export von Meinungsfreiheitsbeschränkungen

Artikel 4 normiert die Entfernungsordnung. Eine solche Anordnung kann von den Behörden eines jeden Mitgliedsstaates an Hostingdiensteanbieter gesendet werden. Welche Behörde zuständig ist, können die Staaten nach Artikel 17 festlegen. In der Anordnung muss unter anderem die URL des zu sperrenden Inhalts angegeben sein. Der Anbieter ist dann verpflichtet, den Beitrag binnen einer Stunde EU-weit zu blockieren. Tut er es nicht, kann – jedenfalls bei systematischen Verstößen – ein Bußgeld in Höhe von bis zu 4 % des weltweiten Jahresumsatzes verhängt werden, Artikel 18 Absätze 1 und 4. Eine inhaltliche Prüfung der Anordnung durch die Hostingdiensteanbieter ist nicht vorgesehen, nur wenn ihnen die Ausführung faktisch unmöglich ist, etwa wegen höherer Gewalt oder weil sie offensichtlich fehlerhaft ist, sind sie berechtigt, ihr nicht nachzukommen.

Damit können erhebliche Beschränkungen der Meinungsfreiheit einhergehen. Besonders bemerkenswert ist, dass jeder Mitgliedsstaat befugt sein soll, eine EU-weite Sperrung anzuordnen. Zum Beispiel kann eine polnische Behörde eine Entfernungsanordnung gegen einen Beitrag, der von einem Menschen in Deutschland auf einer in Deutschland ansässigen Plattform hochgeladen wurde, entfernen lassen. Das könnte ein kritischer Post über die polnische Regierung sein. Eine solche Anordnung wäre natürlich rechtswidrig. Die Möglichkeit, sich gerichtlich dagegen zu wehren, soll der Person, die den Inhalt hochgeladen hat, aber in dem Staat zustehen, der die Entfernungsanordnung erlassen hat, also in Polen. Da die EU-Kommission derzeit ein Vertragsverletzungsverfahren gegen Polen wegen Verstößen gegen die Rechtsstaatlichkeit betreibt, ist erkennbar, dass sie selbst davon ausgeht, dass faire Verfahren vor polnischen Gerichten nicht gewährleistet sind.

Solche transnationalen Befugnisse werfen, gerade wenn es um einen hochpolitischen Begriff wie Terrorismus geht, Probleme auf: Etwa die Regierungen von Schweden und Ungarn können durchaus verschiedene Auffassungen darüber haben, ob ein Interview mit Mitgliedern kurdischer oder tschetschenischer Organisationen als Glorifizierung von Terrorismus zu klassifizieren ist, wie Daphne Keller vom Center for Internet and Society an der Stanford Law School erläutert, die einen Export von Meinungsfreiheitsbeschränkungen befürchtet: Werden bestimmte politische Gruppen in einem EU-Staat als terroristisch betrachtet, so können Inhalte, die sich affirmativ zu deren Handlungen verhalten, im gesamten Unionsgebiet blockiert werden. Martin Scheinin, ehemaliger UN-Sonderberichterstatter und Experte für Menschenrechte, spricht gegenüber Spiegel Online von einer „völlig neue[n] Dimension transnationaler Macht“.

Die Entfernungsfrist von nur einer Stunde ist für kleine und mittlere Angebote existenzbedrohend. Sie erfordert von den Hostingdiensten praktisch die Einrichtung eines 24-Stunden-Dienstes, was für kleine und mittlere Plattformen – je nach finanzieller Ausstattung – in der Regel nicht machbar sein wird. Damit wird ihnen der Marktzugang erheblich erschwert, was im Ergebnis den jetzt bereits etablierten großen Angeboten einen Wettbewerbsvorteil verschafft. Darüber hinaus bleibt zu bezweifeln, ob die Behörden überhaupt in der Lage sein werden, eine nennenswerte Anzahl an problematischen Beiträgen binnen kurzer Zeit zu erkennen. Gerade dann, wenn ein Beitrag bereits seit längerer Zeit online war, als die Entfernungsanordnung eingetroffen ist, ist es unverhältnismäßig, dem Hostingdiensteanbieter eine nur einstündige Frist aufzuerlegen.

Meldungen: Umgehung rechtsstaatlicher Garantien

Artikel 5 enthält mit den Meldungen (referrals), eine Rechtsgrundlage analog der bisherigen Praxis der IRU bei Europol. Die Kernidee ist: nationale Behörden melden einen Inhalt an die jeweilige Plattform mit dem Hinweis, diese möge prüfen, ob ein Verstoß gegen ihre Nutzungsbedingungen vorliege. Der Hostingdienst muss sodann diese Prüfung mitteilen und der Behörde das Ergebnis mitteilen. Er ist nicht zur Entfernung verpflichtet. Zunächst ist nicht klar, weshalb eine Behörde, wenn sie einen Inhalt als terroristisch erkennt, ihn nicht verbindlich entfernen lassen soll, wie Nima Mafi-Gudarzi auf Legal Tribune Online erläutert.

Entfernt ein Hoster einen Inhalt wegen eines Verstoßes gegen seine Nutzungsbedingungen, so findet ein anderer grundrechtlicher Maßstab Anwendung als bei einer bindenden behördlichen Anordnung. Grundsätzlich sind die Plattformen nicht an Grundrechte gebunden und können festlegen, dass bestimmte Beiträge, die von der Meinungsfreiheit gedeckt sind, auf ihren Seiten nicht erscheinen dürfen. Wenn staatliche Akteure, die nur aufgrund einer bestimmten Rechtsgrundlage Inhalte löschen dürfen, den Umweg über eine scheinbare juristische Verantwortung Privater wählen, dann weckt das zumindest den Verdacht, dass sie Entfernungen veranlassen wollen, die jenseits ihrer Befugnisse liegen. Damit könnten auch Behörden in Staaten, in denen ein rechtsstaatliches Verfahren zu erwarten ist, versuchen, Beiträge verschwinden zu lassen, für deren Löschung auf Basis nationalen oder internationalen Rechts keine Grundlage bestünde. Inwiefern die betroffenen Personen, die den Inhalt hochgeladen haben, gegen die Meldung selbst juristisch vorgehen können, ist ungewiss.

Eine mögliche Ratio hinter dieser Norm kann darin liegen, mit der drakonischen Bußgeldandrohung behutsam umzugehen und Plattformen, solange sie sich grundsätzlich kooperativ zeigen, eher Meldungen zuzustellen. Erst im Fall mangelnder Kooperation würde man dann Entfernungsanordnungen erlassen. Damit könnte ein großer Teil der Inhaltssperrungen auf Basis der Kooperation zwischen Behörden und Plattformen bewältigt werden – im Zweifel zu Lasten der Inhalteanbieterinnen und -anbieter, denen die rechtliche Überprüfung erschwert wird.

Das Internet Archive berichtete, von den französischen Behörden bereits 550 falsche Meldungen zur Löschung von Inhalten erhalten zu haben und hat einige besonders offensichtliche Fehlmeldungen veröffentlicht.

Proaktive Maßnahmen: Uploadfilter

Schließlich können Behörden auf Grundlage des Textes von den Hostingsdiensten verlangen, proaktive Maßnahmen zu ergreifen, um die Verfügbarkeit terroristischer Inhalte einzuschränken. Darunter kann man sich insbesondere Uploadfilter, also Algorithmen, die Inhalte erkennen und löschen sollen, vorstellen. Im Einzelfall können die Behörden bestimmen, welche proaktive Maßnahme genau implementiert werden soll, Artikel 6 Absatz 4.

Automatisierte Filter sind nicht in der Lage, den Kontext von Ideen und Äußerungen einzuschätzen und daher massiv fehleranfällig. Die Plattform Youtube, die sie bereits auf freiwilliger Basis einsetzt, sperrte zehntausende Videos, die Kriegsverbrechen des IS dokumentierten, weil in ihnen IS-Flaggen zu sehen waren. Jeder einzelne legale Inhalt, der fehlerhaft gelöscht wird, ist eine unzulässige Verletzung der Meinungsfreiheit. Eine Fehlerquote, die jeder Filter aufweist, ist hier absolut inakzeptabel. Es wird eine Infrastruktur zur Kontrolle bereitgestellt, deren Anwendungsbereichs je nach Interessenlage auch noch stärker auf politisch unerwünschte Inhalte ausgedehnt werden kann, als diese ohnehin schon in der Terrordefinition enthalten sind.

Einige Stimmen in der Rechtswissenschaft sprechen sich dafür aus, eine staatlich angeordnete automatische Vorkontrolle als durch das Grundgesetz verbotene Zensur einzuordnen.

Welche Dienste von den Regeln betroffen sein sollen

Artikel 2 Absatz 1 des Kommissionsentwurfs definiert die Hostingdiensteanbieter, die unter die neuen Regeln fallen sollen: Damit sind Anbieter von „Diensten der Informationsgesellschaft“ gemeint, „die darin bestehen, die durch einen Inhalteanbieter bereitgestellten Informationen im Auftrag des Inhalteanbieters zu speichern und die gespeicherten Informationen Dritten zur Verfügung zu stellen.“ Diese Definition ist extrem weitgehend. Sie umfasst soziale Netzwerke, Blogs und Nachrichtenportale mit Kommentarfunktion, Foren, Videostreamingdienste, File-Sharing, Cloud-Dienste. Nicht erforderlich ist die öffentliche Zugänglichkeit der Inhalte.

Kleinere und mittlere Anbieter, darunter nichtkommerzielle, haben nicht die technischen und personellen Möglichkeiten, Löschungen binnen einer Stunde durchzuführen oder hochkomplexe Filtersysteme einzurichten. Viele wären deshalb gezwungen, ihre Angebote für benutzergenerierten Content einzustellen oder die Ausführung an größere Digitalkonzerne auszulagern. Damit wird einer weiteren Monopolisierung der Internetwirtschaft Vorschub geleistet.

Die Definition terroristischer Inhalte

Was unter terroristischen Inhalten zu verstehen ist, regelt Artikel 2 Absatz 5. Erfasst sind der Aufruf zu, die Befürwortung von oder die Ermutigung zu terroristischen Straftaten und zur Mitwirkung daran, ebenso Informationen, die terroristische Vereinigungen fördern. Schließlich fallen technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten unter den Begriff.

Was terroristische Straftaten sind, legt die von Menschenrechtsorganisationen stark kritisierte RL 2017/541 fest. Dass die Verordnung an diese Richtlinie anknüpft, ist aus mehreren Gründen problematisch:

Erstens handelt es sich bei einer Richtlinie nicht um ein unmittelbar anwendbares Gesetz, sondern um eine Vorgabe dafür, welche Gesetze Mitgliedsstaaten erlassen müssen. Daher ist der Normtext viel zu unpräzise, um eine trennscharfe Subsumtion von Sachverhalten zu ermöglichen. Wie der ehemalige UN-Sonderberichterstatter und Grundrechtsexperte Martin Scheinin darlegt, ist das Anknüpfen an Straftatbestände für eine Bestimmung über Inhaltslöschungen strukturell ungeeignet, denn sie sind dafür konstruiert, in einem Gericht nach einer Beweisaufnahme angewendet zu werden. Sie enthalten insbesondere subjektive Elemente wie Vorsatz und zum Teil spezifische Absichten, die anhand eines bloßen Postings in der Regel nicht feststellbar sind.

Zweitens umfasst die Richtlinie von 2017 Tatbestände, deren Klassifizierung als Terrorismus höchst fragwürdig ist: Genannt ist etwa das Kapern von öffentlichen Verkehrsmitteln mit dem Ziel, öffentliche Stellen oder eine internationale Organisation rechtswidrig zu einem Tun oder Unterlassen zu zwingen. Das kann auch Aktionen zivilen Ungehorsams erfassen.

Besonders schwerwiegend ist der Einschluss von „technische[n] Anleitungen oder Methoden für das Begehen terroristischer Straftaten“. Über solche Methoden berichten regelmäßig Journalisten, NGOs oder Behörden, deren Tätigkeiten definitiv nicht erfasst sein sollten. Aus dieser Bestimmung ergibt sich eine erhebliche Gefährdung der Presse- und Informationsfreiheit.

So haben auch der UN-Sonderberichterstatter für Meinungsfreiheit, David Kaye, der UN-Sonderberichterstatter für Datenschutz, Joseph Cannataci und die UN-Sonderberichterstatterin für den Schutz von Menschenrechten bei Anti-Terror-Maßnahmen, Fionnuala Ní Aoláin, in einem gemeinsamen Bericht harsche Kritik geübt und die europäischen Institutionen daran erinnert, dass auch Inhalte, die den Staat schockieren, angreifen und stören, von der Meinungs- und Informationsfreiheit gedeckt sind und zum demokratischen Diskurs gehören.

Sorgfaltspflichten und AGB-Verpflichtungen

Gemäß Artikel 3 des Entwurfs sollen Plattformen sehr unbestimmte Sorgfaltspflichten auferlegt werden. Konkret ist von „geeignete[n], angemessene[n] und verhältnismäßige[n] Maßnahmen […], um die Verbreitung terroristischer Inhalte zu verhindern […]“ die Rede. Darüber hinaus fordert Artikel 3 Absatz 2, dass die Dienste in ihren Nutzungsbedingungen Bestimmungen zur Verhinderung der Verbreitung terroristischer Inhalte aufnehmen. Ausgehend davon, dass die Definition terroristischer Inhalte vage ist und legale Inhalte erfasst, führt das zu der erstaunlichen Verpflichtung der Hostingdiensteanbieter, Inhalte vertraglich zu verbieten, die derzeit legal sind, wie Joan Barata vom Center for Internet and Society an der Stanford Law School herausstellt.

Die Änderungsvorschläge des Ausschusses für Bürgerliche Freiheiten

Im Ausschuss der Parlaments für bürgerliche Freiheiten wurden deutliche Entschärfungen des Textes vorgeschlagen. Er enthält aber immer noch Elemente, die die freie Meinungsäußerung bedrohen.

Insbesondere bleiben die wettbewerbspolitischen Bedenken im vollen Umfang bestehen, da die einstündige Löschfrist nicht angerührt wurde. Dass nunmehr 12 Stunden vor der ersten Entfernungsanordnung, die eine Plattform von der anordnenden Behörde erhält, gemäß Artikel 4 Absatz 1b eine Unterrichtung des Hostingdienstes über die Verfahrensweise stattfinden muss, nützt wenig, da diese Regelung eben nur für das erste Mal gilt. Von diesem Zeitpunkt an müssen die Dienste damit rechnen, zu jeder Zeit eine Anordnung zu erhalten, die binnen einer Stunde befolgt werden muss.

Ausnahmeregelungen

Nach Artikel 1 soll die Verordnung nicht auf Inhalte Anwendung finden, die journalistischen Zwecken, Bildungszwecken oder der Sensibilisierung für terroristische Aktivitäten dienen. Von letzterem Kriterium werden Uploads von Organisationen wie etwa The Syrian Archive oder Witness umfasst sein, die terroristische Taten dokumentieren. Diese Ausnahmen sind im Prinzip zu begrüßen, es stellt sich aber die Frage, ob sich – gerade auf Plattformen mit benutzergenerierten Inhalten – unter Zeitdruck rasch aus dem Kontext erschließen lässt, ob ein Beitrag etwa journalistische Zwecke verfolgt.

Anwendungsbereich

Der Anwendungsbereich wurde eingegrenzt auf Hostingdienste, die Inhalte der Öffentlichkeit zugänglich machen, Artikel 2 Absatz 1. Das ist zu befürworten, weil zuvor eine Reihe von Diensten miterfasst war, für die die Verordnung gänzlich ungeeignet wäre, etwa interne Unternehmensclouds. Nicht in jedem Fall ist aber klar, ob ein Dienst unter diese Definition fällt oder nicht: Ist etwa eine geschlossene Facebook-Gruppe mit 1000 Mitgliedern öffentlich?

Definition terroristischer Inhalte

In den Bestimmungen nach Artikel 2 Absatz 5 (a) bis (c) darüber, was als terroristischer Inhalt einzuordnen ist, ist nun das Erfordernis enthalten, dass der Inhalt die Gefahr der Begehung einer terroristischen Tat verursacht. Was eine terroristische Tat ist, wird nach wie vor durch Rückgriff auf die Richtlinie 2017/541 festgelegt. Damit bleiben Aufrufe zu Aktionen zivilen Ungehorsams umfasst. Besonders bedenklich sind hingegen die Bestimmungen (d) und (e). Dabei werden einerseits Anleitungen zur Herstellung von explosiven Waffen, schädlichen Substanzen und Ähnlichem umfasst, worunter sich eine Vielzahl wissenschaftlicher Veröffentlichungen aus dem Bereich der Chemie subsumieren lässt. Anderseits sollen Darstellung terroristischer Taten ebenfalls als terroristische Inhalte gelten. Solche Darstellungen können aber dokumentarisch sinnvolle Zwecke verfolgen. Wenn sie unter eine der Ausnahmen aus Artikel 1 fallen, sind sie zwar geschützt. Es wird aber im Einzelfall – gerade bei Uploads von Privatpersonen – oftmals schwerlich anhand des Inhalts zu erkennen sein, ob ein Beitrag hochgeladen wurde, um die Öffentlichkeit für terroristische Taten zu sensibilisieren oder um zu weiteren Taten aufzurufen.

Die zuständige Behörde

Während nach den Vorstellungen der Kommission die Mitgliedstaaten nach Gutdünken entscheiden können sollen, welche Behörde oder Behörden für die Ausführung der Verordnung zuständig sind (Artikel 17 Kommissionsentwurf), legt der LIBE-Entwurf in Artikel 2 Absatz 9a fest, dass pro Mitgliedstaat entweder eine einzelne Justizbehörde oder eine einzelne funktionell unabhängige Verwaltungsbehörde für die Ausführung der Verordnung zuständig sein soll. Das ist ebenfalls als Fortschritt zu werten, weil die Dienste nicht damit konfrontiert sind, Anordnungen von einer Vielzahl von Behörden pro Mitgliedstaat zu empfangen und deren Authentizität überprüfen zu müssen. Wünschenswert wäre allerdings die Verpflichtung, eine unabhängige Behörde mit dieser Aufgabe zu betrauen, um sicherzustellen, dass Regierungen keinen unmittelbaren Einfluss auf ihre Entscheidungen nehmen können.

Verminderung der transnationalen Reichweite

Während der Kommissionsentwurf vorsah, dass Behörden eines jeden Staates Beiträge europaweit mittels einer Entfernungsanordnung blockieren lassen können, wurde diese Möglichkeit erheblich begrenzt: Nunmehr soll ausschließlich die Behörde jenes Staates, in dem die Plattform ihren Hauptsitz hat, zu einer europaweiten Sperrung befugt sein.

Die Behörde eines anderen Staates kann anordnen, dass ein Beitrag auf ihrem Landesgebiet nicht mehr sichtbar sein soll. Damit könnten ungarische Behörden einen Beitrag, der auf einer ausländischen Plattform gespeichert ist, nicht mehr für die gesamte EU, sondern nur noch für Ungarn sperren. Umgesetzt werden könnte das zum Beispiel durch Geoblocking.

Die transnationale Dimension des ursprünglichen Entwurfs wurde damit entschärft. Dennoch können gerade ausländische Plattformen für Oppositionelle in Ländern, in denen die Meinungsfreiheit eingeschränkt ist, wichtige Austauschforen sein, sodass die Kernkritik erhalten bleibt: Es besteht eine erhebliche Gefahr, dass die Entfernungsanordnung verwendet wird, um politisch abweichende Meinungen zu unterdrücken.

Streichung der Meldungen

Für Meldungen zur freiwilligen Löschung enthält der Entwurf nun keine Rechtsgrundlage mehr. Das ist zu begrüßen. Dass solche Meldungen deshalb unterbleiben werden, ist aber nicht gesichert. In Erwägungsgrund 1b des Entwurfes heißt es, illegalen Inhalten müsse mit einer Mischung aus gesetzlichen und freiwilligen Maßnahmen, basierend auf der Zusammenarbeit von Behörden und Providern, begegnet werden. Vor diesem Hintergrund ist nicht unwahrscheinlich, dass Behörden auch ohne Rechtsgrundlage zunächst unverbindliche Meldungen an die Dienste senden und diese – vor dem Hintergrund, nicht von kurzfristigen Entfernungsanordnungen bedroht werden zu wollen – kooperieren. Inhalteanbieterinnen und -anbieter könnten sich dagegen kaum wehren, weil sie wahrscheinlich allenfalls den Hinweis erhalten werden, dass ihr Beitrag aufgrund eines Verstoßes gegen die Nutzungsbedingungen entfernt wird, jedoch keine weiteren Informationen über eine zugrundeliegende behördliche Meldung.

Aus proaktiven Maßnahmen wurden spezifische Maßnahmen

Zunächst besagt Artikel 6, dass Hostingdienste spezifische Maßnahmen ergreifen können, um ihre Dienste vor terroristischen Inhalten zu schützen. Diese Maßnahmen sollen zielgerichtet sein. Bei der Auswahl sollen die Hostingdienste einerseits das bisherige Vorkommen terroristischer Inhalte auf ihrer Plattform und andererseits die Grundrechte der Nutzerinnen und Nutzer berücksichtigen.

Nach Artikel 6 Absatz 4. kann die Behörde eine Aufforderung, spezifische Maßnahmen zu ergreifen, an den Hostingdienst senden. Dabei soll die technische Umsetzbarkeit sowie die Größe und die ökonomischen Ressourcen des Anbieters berücksichtigt werden. Ausdrücklich heißt es, dass die Behörden keine generellen Überwachungspflichten und keine Verwendung automatisierter Mittel anordnen dürfen. Damit können unter den verpflichtenden spezifischen Maßnahmen im Sinne dieses Entwurfs keine Uploadfilter verstanden werden. Laut Erwägungsgrund 16 soll es sich vielmehr um Berichtspflichten gegenüber den Behörden, den Einsatz von mehr Personal und den Austausch bewährter Verfahren handeln.

Fazit

Trotz einiger Verbesserungen im Entwurf des LIBE-Ausschusses bedroht die geplante Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte Meinungs-, Informations- und Pressefreiheit sowie die Vielfalt der medialen Landschaft des Internets. Gerade in Zeiten, in denen explizit demokratiefeindliche Parteien in Parlamenten in Europa sitzen, sollten Befugnisse, mit denen politische Freiheiten beschränkt werden können, nur sehr sparsam eingeräumt werden.

Es bleibt abzuwarten, welche der vom Ausschuss vorgeschlagenen Änderungen das Parlament am Mittwoch annehmen wird. In der folgenden Legislaturperiode werden Parlament, Rat und Kommission in den Trilogverhandlungen einen Kompromiss erzielen müssen – der wahrscheinlich zwischen den beiden hier vorgestellten Entwürfen liegen wird. Es ist also zu befürchten, dass einige der Verbesserungen aus der Ausschussfassung wieder rückgängig gemacht werden.

Netzpolitischer Abend Spezial: Digitalpolitik der Europäischen Union

Foto: DAVID ILIFF, Bearbeitung: E. N. Lizenz: CC BY 2.0

Der Digitale Gesellschaft e.V. lädt gemeinsam mit ALEX-Berlin zu einer Podiumsdiskussion mit Vertreterinnen und Vertretern verschiedener Parteien.

Hier geht’s ab 19:00 Uhr zum Livestream auf der Website von ALEX Berlin.

Die Digitalisierung ist eine der einschneidensten gesellschaftlichen Veränderungen unserer Zeit. Ob Urheberrechtsreform, Datenschutzgrundverordnung oder Vorratsdatenspeicherung – netzpolitische Themen prägen die Politik der EU entscheidend mit und sind oftmals stark umstritten.  

Vor diesem Hintergrund sollen anlässlich der Wahl zum Europäischen Parlament die netzpolitischen Agenden von CDU, SPD, Bündnis 90/Die Grünen, FDP, der Linken und der Piratenpartei in einer Podiumsdiskussion mit Parteivertreterinnen und Parteivertretern erörtert werden. 

Im Fokus werden dabei zwei Themengebiete stehen:

1. Wie soll der europäische Datenschutz und die Datenökonomie der Zukunft aussehen? Welche Bilanz können wir nach einem Jahr Datenschutzgrundverordnung ziehen? Welche Ziele können mit der e-Privacy-Verordnung erreicht werden?

2. Sollen Online-Plattformen stärker reguliert werden? Urheberrechtsverletzungen, Hate-Speech, Fake News und Terrorismus werfen die Frage auf, ob Plattformen für hochgeladene Inhalte direkt verantwortlich sein sollen. Sind Uploadfilter der richtige Weg? Welche Folgen haben Regulierungsansätze für politische Grundfreiheiten wie die freie Meinungsäußerung?

Mit: Susanne Zels (CDU), Dr. Laura Sophie Dornheim (Grüne), Matthias Ecke (SPD), Juliane Hüttl (FDP), Konstanze Kriese (Linke) und Dr. Patrick Breyer (Piraten). 
Moderation: John Weitzmann (Digitale Gesellschaft e.V.)

Ort und Zeit

16.04.2019, Beginn: 19 Uhr, Einlass ab 18:30

Achtung! 19 Uhr wird die TV-Übertragung beginnen, daher bitten wir alle Interessierten, etwas eher zu erscheinen.

ALEX-Halle, Rudolfstraße 1-9 (Eingang Ecke Ehrenbergstraße), Berlin (Nähe Oberbaumbrücke).

Hashtag

Der Hashtag für diesen Abend ist #NPA_EU, gebraucht ihn gerne und reichlich, auch für Feedback und Fragen, wenn ihr nicht vor Ort sein könnt.

Hinweis

Die Veranstaltung findet in den Räumen unseres Medienpartners ALEX-Berlin statt und wird im Livestream sowie im Fernsehen live übertragen. Mit Betreten des Studios erklären sich Besucherinnen und Besucher damit einverstanden, gefilmt zu werden. Wer unerkannt bleiben möchte, dem wird empfohlen, in den hinteren Reihen Platz zu nehmen. Wir bitten freundlich um Verständnis.

Warum Uploadfilter in der Urheberrechtsrichtlinie verhindert werden müssen

Seit 2013 wird in der Europäischen Union über eine Reform des Urheberrechts verhandelt. Das derzeit geltende Urheberrecht der EU stammt im Wesentlichen aus dem Jahr 2001. Seither hat sich der Umgang mit urheberechtlich geschützten Inhalten im Internet stark verändert. Plattformen, auf denen nutzergenerierte Inhalte verbreitet werden, sind prägend für die digitale Medienlandschaft. Eine Reform des Urheberrechts ist deshalb dringend nötig. Der aktuelle Richtlinienentwurf, der Ergebnis der Trilogverhandlungen ist und über den das Europäische Parlament am Dienstag abstimmen wird, wird den Anforderungen der digitalisierten Welt an das Urheberrecht aber nicht gerecht. Mit der Abkehr vom Providerprivileg wird das Modell der user-generated-content-Plattform grundsätzlich in Frage gestellt. Das Haftungsregime des Entwurfs zieht zwangsläufig die Einrichtung von Algorithmen nach sich, die Inhalte beim Hochladen auf Urheberrechtsverletzungen überprüfen – die umstrittenen Uploadfilter. Diese Instrumente werden die Kunst-, Presse-, Meinungs- und Informationsfreiheit stark beschränken. Sie sind schon aus technischer Sicht ungeeignet, um legale Uploads von illegalen zu unterscheiden. Darüber hinaus wird mit dem Entwurf der weiteren Monopolisierung der Digitalwirtschaft Vorschub geleistet.

Dieser Beitrag erläutert, wie Plattformbetreibende unter dem Regime des Artikel 13 (nach aktueller Nummerierung Artikel 17) für hochgeladene Inhalte haften und welche Probleme sich daraus für Freiheitsrechte, die mediale Vielfalt des Internets und den Wettbewerb zwischen Plattformen ergeben.

Artikel 13 (17): Uploadfilter

Die Abkehr vom Providerprivileg

Bisher gilt in der europäischen Union der Grundsatz, dass Plattformbetreibende nicht für Urheberrechtsverletzungen durch Nutzer haften, es sei denn, sie wurden darauf aufmerksam gemacht, dass ein Inhalte rechtswidrig hochgeladen wurde (Providerprivileg). Geregelt ist dieses Haftungsprinzip in der E-Commerce-Richtline (2000/31/EG). Urheberrechtsverletzungen wird mit dem Notice-and-Take-down-Verfahren begegnet. Das bedeutet: Die Rechteinhaber*in wendet sich an die Plattform und teilt mit, dass ein Inhalt ohne Erlaubnis hochgeladen wurde. Daraufhin sperrt die Plattform den Inhalt. Davon weicht der Entwurf der neuen Urheberrechtsrichtlinie grundlegend ab: Artikel 13 (17) Absatz 3 normiert, dass die Betreibenden grundsätzlich für die Inhalte haften, als hätten sie sie selbst hochgeladen. Das widerspricht dem Prinzip der user-generated-content-Plattform fundamental.

„Nimmt ein Diensteanbieter für das Teilen von Online-Inhalten eine Handlung der öffentlichen Wiedergabe oder der öffentlichen Zugänglichmachung unter den in diesem Artikel festgelegten Bedingungen vor, so findet die Beschränkung der Verantwortlichkeit nach Artikel 14 Absatz 1 der Richtlinie 2000/31/EG auf die in diesem Artikel beschriebenen Situationen keine Anwendung. […]“

Neue Kategorie: Diensteanbieter für das Teilen von Online-Inhalten

Der umstrittene Artikel 13 gilt für „online content sharing service provider“. Artikel 2 Absatz 6 des Entwurfs definiert, was unter diesem Begriff zu verstehen ist:

„6. „Diensteanbieter für das Teilen von Online-Inhalten“ bezeichnet den Anbieter eines Dienstes der Informationsgesellschaft, bei dem der Hauptzweck bzw. einer der Hauptzwecke darin besteht, eine große Menge an von seinen Nutzern hochgeladenen, urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen zu speichern und der Öffentlichkeit Zugang hierzu zu verschaffen, wobei dieser Anbieter diese Inhalte organisiert und zum Zwecke der Gewinnerzielung bewirbt.

Urheberrechtlich geschützt sind auch die Werke der Nutzer*innen, nicht etwa nur solche anerkannter Künstler*innen, also auch Fotos, Videos, Texte, Audiodateien und andere Inhalte, die von Privatpersonen hergestellt und hochgeladen werden. Das Kriterium grenzt die Provider nur von solchen ab, die gemeinfreie Werke bereitstellen.

Das Kriterium „zum Zwecke der Gewinnerzielung“ kann eine Plattform schneller als im alltäglichen Wortverständnis erfüllen: Eine Vielzahl von Plattformen schalten etwa Werbung, um die Kosten für den Betrieb einzuholen. Wenn dabei regelmäßig geringe Gewinne entstehen, haben die Betreiber*innen bereits zu befürchten, in den Anwendungsbereich zu fallen. Einen Rechtsstreit mit unsicherem Ausgang über diese Frage können sich gerade wenig profitable Plattformen nicht leisten.

Betroffen sein können also Audio- und Video-Sharing-Portale wie Vimeo, Social-Media-Plattformen wie Mastodon oder Foren.

Vom Anwendungsbereich ausgenommen sind nicht gewinnorientierte Online-Enzyklopädien, nicht gewinnorientierte Bildungs- und Wissenschaftsarchive, Plattformen, die der Entwicklung und dem Teilen von Open Source Software dienen, Online-Marktplätze, Business-to-business-Cloud-Dienste und Cloud-Dienste, bei denen Benutzer Inhalte für die eigene Verwendung hochladen können.

Während in der öffentlichen Debatte viel über Youtube gesprochen wird, zeigt die Weite des Anwendungsbereiche, dass eine Vielzahl von Diensten betroffen ist, für die die Vorschriften gänzlich unpraktikabel sind.

Die Verpflichtung zum Lizenzerwerb

Artikel 13 (17) Absatz 1 schafft die neue Verpflichtung, eine Autorisierung der Rechteinhaber einzuholen.

„Die Mitgliedstaaten sehen vor, dass ein Diensteanbieter für das Teilen von Online-Inhalten eine Handlung der öffentlichen Wiedergabe oder eine Handlung der öffentlichen Zugänglichmachung für die Zwecke dieser Richtlinie vornimmt, wenn er der Öffentlichkeit Zugang zu von seinen Nutzern hochgeladenen urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen verschafft. Ein Diensteanbieter für das Teilen von Online-Inhalten muss deshalb die Erlaubnis von den in Artikel 3 Absatz 1 und 2 der Richtlinie 2001/29/EG genannten Rechteinhabern einholen, etwa durch den Abschluss einer Lizenzvereinbarung, damit er Werke oder sonstige Schutzgegenstände öffentlich wiedergeben oder öffentlich zugänglich machen darf.

Demnach müssen Plattformen sicherstellen, dass so viele Rechteinhaber*innen wie möglich die Veröffentlichung auf der Plattform genehmigen. Sie müssen also proaktiv in Lizenzverhandlungen mit diesen Akteur*innen treten. Praktisch wird das auf Vereinbarungen mit den Verwertungsgesellschaften hinauslaufen. Dieses Konzept mag etwa für die Verbreitung von Musik auf Youtube nicht ungeeignet sein. Beispielsweise erhalten auch Radiosender von der GEMA und der GVL pauschal Lizenzen für das Weltrepertoire. Auf viele Kategorien von Inhalten lässt es sich aber kaum anwenden: So lizenziert keine Verwertungsgesellschaft aktuelle Kinofilme oder das Weltrepertoire an Fotos. Woher sollen Plattformen gar Lizenzen für geleakte Dokumente erhalten?

Alle Anstrengungen: Uploadfilter

Der Begriff „Uploadfilter“ kommt im Text der Verordnung nicht vor. Nachdem im ursprünglichen Entwurf von 2016 noch von „wirksame[n] Inhaltserkennungstechniken“ die Rede war, wurden alle Begrifflichkeiten, die mit Uploadfiltern assoziiert werden können, aus dem Text gestrichen. Die verpflichtende Einführung von Uploadfiltern ergibt sich aber aus den Anforderungen, denen Plattformen genügen müssen, um eine Haftung für Inhalte, für die keine Lizenz vorliegt, auszuschließen:

„(4) Wird die Erlaubnis nicht erteilt, so ist der Diensteanbieter für das Teilen von Online-Inhalten für nicht erlaubte Handlungen der öffentlichen Wiedergabe, einschließlich der öffentlichen Zugänglichmachung, urheberrechtlich geschützter Werke oder sonstiger Schutzgegenstände verantwortlich, es sei denn, der Anbieter dieser Dienste erbringt den Nachweis, dass er

a) alle Anstrengungen unternommen hat, um die Erlaubnis einzuholen; und

b) nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen hat, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind; und in jedem Fall

c) nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt hat, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von seinen Internetseiten zu entfernen, und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern.“

Wird ein Inhalt hochgeladen, für den keine Autorisierung des Rechteinhabers vorliegt, so kann die Plattform der Haftung entgehen, wenn sie diesen drei Anforderungen genüge getan hat. Insbesondere muss sie alle Anstrengungen unternehmen, um sicherzustellen, dass bestimmte Werke, die zuvor mit Erkennungsinformationen vom Rechteinhaber gemeldet wurden, nicht verfügbar sind. Die drei Voraussetzungen müssen kumulativ erfüllt werden, das heißt, wenn auch nur eine davon nicht vorliegt, haftet die Plattform für die Urheberrechtsverletzung.

Sonderregelungen gelten für Provider, die seit weniger als drei Jahren in der Union Dienste anbieten, deren Jahresumsatz gleichzeitig unter zehn Millionen Euro liegt und die im vergangenen Jahr weniger als fünf Millionen Besucher im Monat hatten. Sie müssen den Anforderungen unter (b) nicht genügen.

Auf Youtube werden pro Minute 450 Stunden Videomaterial hochgeladen. Aus technischer Sicht kann unter „alle Anstrengungen“ deshalb nichts anderes zu verstehen sein als die Einrichtung automatischer Filtersysteme, die urheberrechtlich geschützte Inhalte erkennen und blockieren sollen. Solche Filter werden heute bereits von einigen Plattformen angewendet, ohne dass eine gesetzliche Verpflichtung bestünde. Der bekannteste ist Content-ID von Youtube. Wer sicherstellen möchte, dass seine urheberrechtlich geschützten Werke nicht von Unbefugten über diese Plattformen verbreitet werden, kann Erkennungsinformationen (Fingerprints) zur Überprüfung an Youtube melden. Diese werden dann mit den Fingerprints der hochgeladenen Werke abgeglichen. In der Praxis wird aufwendig entwickelte, „intelligente“ Software verwendet, die mit neuronalen Netzen (deep learning) arbeitet, um Inhalte wiederzuerkennen.

Die Verpflichtung zur Verwendung einer solchen Technologie bringt eine Vielzahl von Problemen mit sich:

1. Uploadfilter bedrohen Freiheitsrechte

Automatische Filtersysteme können nicht entscheiden, wann eine Urheberrechtsverletzung vorliegt. Sie können nicht sicher beurteilen, ob ein Inhalt überhaupt ein menschliches Werk ist. So wurde bereits Katzenschnurren von Filtern mit geschützter Musik verwechselt. Parodien werden nicht als Weiterverarbeitungen erkannt und als Beifang blockiert. Gleiches gilt für erlaubte Zitate. Zwar statuiert Absatz 7, dass die Möglichkeiten der hochladenden Nutzer*innen zu Zitaten, Kritik, Rezensionen, Karikaturen, Parodien und Persiflagen erhalten bleiben sollen:

„(7) Die Zusammenarbeit zwischen den Diensteanbietern für das Teilen von Online-Inhalten und den Rechteinhabern darf nicht bewirken, dass von Nutzern hochgeladene Werke oder sonstige Schutzgegenstände, bei denen kein Verstoß gegen das Urheberrecht oder verwandte Schutzrechte vorliegt, nicht verfügbar sind, und zwar auch dann, wenn die Nutzung eines Werkes oder sonstigen Schutzgegenstandes im Rahmen einer Ausnahme oder Beschränkung erlaubt ist. Die Mitgliedstaaten stellen sicher, dass sich alle Nutzer, die nutzergenerierte Inhalte auf Diensten für das Teilen von Online-Inhalten hochladen oder auf Diensten für das Teilen von Online-Inhalten zugänglich machen, in jedem Mitgliedstaat auf die jede der folgenden Ausnahmen oder Beschränkungen stützen können:

a) Zitate, Kritik und Rezensionen;

b) Nutzung zum Zwecke von Karikaturen, Parodien oder Pastiches.

Technische Möglichkeiten, Urheberrechtsverletzungen zuversichtlich von solchen Werken abzugrenzen, existieren aber nicht. Julia Reda, Abgeordnete im Europäischen Parlament für die Piratenpartei, hat in ihrem Blog eine Sammlung fehlerhafter Filterungen zusammen gestellt. Beispielweise wurde ein Video einer urheberrechtlichen Vorlesung der Harvard Law School blockiert, in der legitimerweise zu Anschauungszwecken kurze Songausschnitte verwendet wurden. Gerade medienkritische Onlineformate arbeiten häufig mit entlarvenden Sendungsausschnitten, wie das Beispiel einer Montage des Blogs Kobuk zeigt. Solche Beiträge werden über Plattformen kaum noch zu verbreiten sein. Immer wieder werden rechtmäßig hochgeladene Aufnahmen von Musikstücken, deren Autoren schon mehr als 70 Jahre verstorben sind, – nach dieser Zeit erlischt das Urheberrecht – gesperrt. Dazu kann es kommen, wenn etwa ein Label eine bestimmte Aufnahme als urheberrechtlich geschützt gemeldet hat und der Uploadfilter nicht zwischen unterschiedlichen Aufnahmen desselben Musikstücks von verschiedenen Interpreten unterscheiden kann. Wie Martin Kretschmer, Professor für Urheberrecht an der Universität Glasgow erläutert, kann mit den Filtern auch der Upload von kompromittierenden Dokumenten, an denen ein öffentliches Interesse besteht, vom Urheber verhindert werden.

Nun könnte man meinen, in Fällen, in denen der Filter einen Inhalt fehlerhaft blockiert, könnten die wahren Rechteinhaber sich rasch mit einer Beschwerde an die Plattformbetreiber wenden und ihren Inhalt ohne Verluste wieder sichtbar machen. Dieses Argument lässt aber die Logik viraler Verbreitung außer Acht, wie ein Fall der Organisation Pinkstinks, die sich gegen Sexismus und Homophobie einsetzt, deutlich macht: Sie hatten via Youtube das von ihnen gedrehte Video „Not Heidi‘s Girl“ verbreitet, das sich kritisch mit der Fernsehsendung Germany‘s Next Topmodel auseinandersetzt. Nachdem das Video bei RTL im Frühstücksfernsehen lief, legte RTL diese Ausstrahlung bei Youtube als urheberrechtlich geschütztes Material vor, woraufhin Youtube den ursprünglichen Clip von Pinkstinks – die ja die tatsächlichen Urheber*innen waren – wegen Urheberrechtsverletzung blockte. Zwar aktivierte Youtube das Video auf Beschwerde von Pinkstinks wieder – die 700 000 Klicks, die das Video zuvor aufwies und die es vielleicht ermöglicht hätten, ein Millionenpublikum zu erreichen, waren jedoch verloren. Eine Entschädigung für die durch RTLs missbräuchliche Meldung entgangene Aufmerksamkeit hat die Gruppe nicht erhalten. Während in diesem Fall die tatsächliche Urheberschaft nicht strittig war, kann es mitunter für die Uploader*in auch recht problematisch sein, der Plattform glaubhaft zu machen, dass sie zur Verbreitung eines Inhalts berechtigt ist.

Meinungs-, Presse-, Kunst- und Informationsfreiheit sind dadurch stark bedroht: Da im Falle einer Urheberrechtsverletzung das Risiko einer Klage über den Plattformen schwebt, sie hingegen für den Fall, dass Inhalte fälschlich gelöscht werden, keine Konsequenzen zu befürchten haben, ist zu erwarten, dass es zu massivem Overblocking kommt. Das meint, dass die Plattformen aus Vorsicht deutlich mehr Inhalte blockieren als eigentlich nötig. Gerade kleinere Anbieter fürchten Rechtsstreitigkeiten und können es sich kaum leisten, es darauf ankommen zu lassen.

2. Artikel 13 schadet Wettbewerb und Datenschutz

Die Einrichtung von Uploadfiltern ist technisch sehr anspruchsvoll. Youtube hat nach eigenen Angaben 100 Millionen US-Dollar in Content-ID, den leistungsfähigsten Uploadfilter der Welt, investiert. Kleinere und mittlere Plattformen können einen solchen Aufwand nicht betreiben und müssten diese Leistung wahrscheinlich von Youtube einkaufen. Das stärkt die Marktposition der ohnehin schon monopolähnlichen Plattformen weiter und stellt daher auch unter wettbewerbspolitischen Gesichtspunkten ein Problem dar. Viele Plattformen warnen derzeit davor, dass sie sich unter dem Regime von Artikel 13 gezwungen sähen, ihren Betrieb einzustellen, so etwa die Initiative Foren gegen Uploadfilter.

Daraus folgt auch ein wesentliches Datenschutzproblem, auf das der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, in einer Presssemitteilung hingewiesen hat: Würde eine Vielzahl von Plattformen die Inhaltsfilterung – so wie es heute schon bei Analysetools gehandhabt wird – an Oligopol-Konzerne auslagern, so würden auch all diese Werkinformationen, möglicherweise mit Daten, die Rückschlüsse auf die hochladende Person zulassen, dort konzentriert werden. Es könnte dann ein guter Teil des ganzen Internettraffics auch über diese Konzerne laufen.

Die Beurteilung, wann eine Urheberrechtsverletzung vorliegt und wann nicht, sollte nicht von Privaten und schon gar nicht von Oligopolen getroffen werden. Auch wenn die Plattformen sich derzeit gegen diese Kontrollverpflichtung wehren, sollte nicht außer Acht gelassen werden, dass ihnen damit eine nicht unerhebliche Machtposition übertragen wird. Die Entscheidungen der Plattformen und der Algorithmen sind nur sehr schwer nachzuvollziehen. Eine demokratische oder juristische Kontrolle der Filter, etwa darauf hin, ob sie diskriminierende Wirkungen entfalten, ist kaum möglich.

3. Eine Zensur findet nicht statt? Vereinbarkeit mit Art. 5 GG

Unter Rechtswissenschaftler*innen ist umstritten, ob staatlich angeordnete Uploadfilter unter den Begriff der Zensur fallen. In Artikel 5 Absatz 1 Satz 2 des Grundgesetzes heißt es „Eine Zensur findet nicht statt.“ Es handelt sich um eine absolute Eingriffsschranke: Während Grundrechte grundsätzlich eingeschränkt werden dürfen, wenn ein legitimer Zweck vorliegt und der Eingriff verhältnismäßig ist, ist eine Zensur immer unverhältnismäßig und damit verfassungswidrig. Was aber ist unter Zensur zu verstehen?

Umfasst ist nur die Vorzensur, das heißt, dass Meinungsäußerungen nur nach vorheriger behördlicher Kontrolle zugelassen werden (Starck, in: Mangoldt/Klein/Starck, Grundgesetz, 5. Auflage 2005. Art. 5 Rn. 170). Grundrechte sind als Abwehrrechte der Bürger*innen gegen den Staat konzipiert. Deshalb wird unter Zensur zunächst die staatliche Kontrolle von Informationen vor deren Publikation verstanden. Mit Artikel 13 würde zwar eine solche Vorkontrolle vorgenommen werden, jedoch nicht von hoheitlichen Stellen selbst, sondern durch Private. Daher meint ein Teil der juristischen Literatur, dass eine solche Filterpflicht keine Zensur sei.

Andererseits wird argumentiert, dass von Privaten unterhaltene Plattformen sich zu bedeutsamen Foren der öffentlichen Meinungsbildung entwickelt haben, weswegen das Zensurverbot grundsätzlich an das veränderte Publikationswesen anzupassen sei (Grabenwarter, in: Maunz/Dürig, Grundgesetzkommentar, 84. EL August 2018, Art. 5 Rn. 119). Wenn Anbieter durch Haftungsregeln zu einzelanlassunabhängigen systematischen Kontrollen und Sperrungen verpflichtet werden, dann käme dies einer Zensur gleich.

Es ist wichtig, sich den Zweck des absoluten Zensurverbots vor Augen zu führen: Das Grundgesetz will jede Möglichkeit zur umfassenden planmäßigen Kontrolle der Kommunikationsinhalte ausschließen. Mögliche Meinungslenkung, eine Lähmung politischen Denkens und voreilendes Anpassungsverhalten der kommunizierenden Bürger*innen sollen ausgeschlossen werden. Meinungslenkung durch Zensur hat sich in der Vergangenheit den technischen Möglichkeiten der Kommunikationsprozesse angepasst: Während etwa die Katholische Kirche bis zur Erfindung des Buchdrucks Nachzensur als ausreichend empfand, führte sie mit Beginn der massenhaften Verbreitung von Druckerzeugnissen die Vorzensur ein (Hoffmann-Riem, in: Kommentar zum Grundgesetz für die Bundesrepublik Deutschland, 3. Auflage 2001, Art 5 Rn. 78). Daran ist abzulesen, dass auch der Zensurbegriff technischen und gesellschaftlichen Veränderungen angepasst werden sollte: Nutzergenerierten Inhalten auf zum Teil monopolartigen Plattformen kommt mittlerweile entscheidende Bedeutung für die Meinungsbildung zu. Der Staat selbst entscheidet zwar nicht im Einzelnen über die Zulässigkeit von Inhalten, ordnet aber die Filterpflicht an. Sind die Filtereinrichtungen einmal geschaffen, so ist – je nach Interessenlage – auch der Kooperation von Plattformbetreibenden mit staatlichen Versuchen, politische unliebsame Beiträge zu unterdrücken, Tür und Tor geöffnet. Dies alles spricht dafür, den Zensurbegriff auf die staatliche Verpflichtung zur anlassunabhängigen Kontrolle sämtlicher Plattforminhalte auszuweiten.

Exkurs: Uploadfilter und Terror Content

Uploadfilter sollen nicht nicht nur den Urheberrechtsschutz stärken, sondern werden auch für einen weitere Anwendungsbereiche diskutiert: Terroristische Online-Inhalte. Die Vorstellung, Terrorpropaganda automatisch löschen oder blockieren zu können, klingt zunächst verlockend. Hier zeigt sich aber ganz besonders die Unfähigkeit der Filtersysteme: Die Plattform Youtube, die sie bereits auf freiwilliger Basis einsetzt, sperrte zehntausende Videos, die Kriegsverbrechen des IS dokumentierten, weil in ihnen IS-Flaggen zu sehen waren.

Nachdem die Innenminister Frankreichs und Deutschlands die EU-Kommission im letzten Jahr aufgefordert hatte, verstärkt gegen Terror-Propaganda im Internet vorzugehen, legte die Kommission im September einen Verordnungsentwurf vor. Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte sollen alle Dienste, die Inhalte von Personen hochladen lassen und sie speichern, um sie Dritten zur Verfügung zu stellen, auf behördliche Anordnung Inhalte binnen einer Stunde löschen. Davon umfasst ist nach dem Kommissionsentwurf jeder Blog mit Kommentarfunktion. Als „terroristisch“ bezeichnet der Entwurf mit der Formulierung „technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten“ auch Berichterstattung von Journalist*innen oder Menschenrechtsorganisationen. Ebenfalls betroffen wäre ein Aufruf zum „Kapern von Luft- und Wasserfahrzeugen oder von anderen öffentlichen Verkehrsmitteln oder Gütertransportmitteln mit dem Ziel, öffentliche Stellen oder eine internationale Organisation rechtswidrig zu einem Tun oder Unterlassen zu zwingen“ – damit könnten in Zukunft auch Aufrufe zu zivilem Ungehorsam entfernt werden. Die breite Definition wurde unter anderem in einem gemeinsamen Bericht des UN-Sonderberichterstatters für Meinungsfreiheit, des UN-Sonderberichterstatters für das Recht auf Privatheit und der UN-Sonderberichterstatterin für den Grundrechtsschutz im Anti-Terror-Kampf scharf kritisiert. Sie erinnern die EU-Institutionen sogar daran, dass auch Inhalte, die den Staat angreifen, schockieren oder stören, vom Recht auf freie Meinungsäußerung umfasst sind:

„The Special Rapporteurs wish to emphasize that the right to freedom of expression extends‘not only to “information” or “ideas”that are favourably received or regarded as inoffensive or as a matter of indifference, but also to those thatoffend, shock or disturbthe State or any sector of the population. Such are the demands of that pluralism, tolerance and broadmindedness without which there is no “democratic society”“.

Neben der Entfernungsanordnung sollen nationale Behörden auch die Möglichkeit haben, Plattformen zur Einrichtung von Uploadfiltern zu verpflichten. Die Verordnung enthält eine ganze Reihe von Ansatzpunkten, die von nationalen Behörden zur Unterdrückung politisch missliebiger Inhalte verwendet werden können. Ganz besonders mangelt es an adäquaten Rechtsschutzmöglichkeiten für die Personen, deren hochgeladener Inhalt blockiert werden soll. So könnte etwa eine polnische Behörde einen Beitrag sperren lassen, der von Deutschland aus auf eine Plattform gestellt wurde. Wollte die hochladende Person sich juristisch dagegen wehren, so müsste sie vor einem polnischen Gericht gegen die Entfernungsanordnung klagen.

Alternativen für die bessere Entlohnung von Kreativen

Es gibt verschiedene Ansätze zur Gewährleistung der gerechten Entlohnung von Kreativen im digitalen Zeitalter. Das Max-Planck-Institut für Innovation und Wettbewerb hat das Modell der erleichterten Lizenzierung vorgeschlagen: Damit ist gemeint, dass – ähnlich wie in Deutschland bei der Privatkopie – die Verbreitung geschützter Inhalte im Internet für nichtkommerzielle Zwecke grundsätzlich erlaubt wird. Im Gegenzug sollen Plattformen eine Vergütung entrichten, die über Verwertungsgesellschaften an die Urheber*innen verteilt wird. Ergänzend soll das Notice-and-take-down-Verfahren harmonisiert und durch ein sogenanntes Counter-notice-Verfahren, das es der hochladenden Person erlaubt, auf die Meldung des Rechteinhabers mit einer Gegendarstellung zu reagieren, ergänzt werden. Ein weiterer Bestandteil ist die Vereinfachung der transeuropäischen Lizenzierungsmechanismen.

Dem ähnelt der Vorschlag der Kulturflatrate. Das meint einen Pauschalbeitrag, der von Internetnutzer*innen entrichtet und an Künstlerinnen verteilt werden soll. Im Gegenzug könnte das Kopieren und die Weitergabe von Werken legalisiert werden.

Uploadfilter sind keineswegs geeignet, einen gerechten Interessenaustausch für die Verbreitung und die Entlohnung von Immaterialgütern im Netz zu schaffen. Notwendig sind sie dafür schon gar nicht.

Demo und Pressekonferenz #Berlingegen13

Protest gegen Uploadfilter und die EU-Urheberrechtsreform am 23. März in Berlin


(Berlin, 19. März 2019) Das Bündnis „Berlin gegen 13“ ruft am Samstag, den 23. März um 14 Uhr zu einer Demonstration gegen die EU-Urheberrechtsreform in Berlin auf. Die Demonstration startet am Potsdamer Platz, geht an Wikimedia und der SPD-Zentrale vorbei und endet am Platz des 18. Märzes am Brandenburger Tor.

Das Bündnis fordert die Abgeordneten des Europaparlamentes auf, die EU-Urheberrechtsreform in der jetzigen Fassung abzulehnen.
Das breite zivilgesellschaftliche Bündnis „Berlin gegen 13“ wird getragen von Campact, dem Chaos Computer Club, der netzpolitischen Organisation Digitale Gesellschaft, der Initiative Digitale Freiheit, dem Journalistenverband Freischreiber, dem Frauen-Hackspace Heart of Code und der europäischen Kampagne Save The Internet. Das Bündnis wird von weiteren Organisationen unterstützt.

Mehr Informationen zum Bündnis: https://berlingegen13.wordpress.com

Termine: 
Morgens am 21. März um 9:30 Uhr gibt es Proteste bei einer Pressekonferenz mit Axel Voss. Diese finden Unter den Linden 78 statt. Diese Kundgebung ist nicht vom Bündnis Berlin gegen 13 angemeldet.

Pressekonferenz 21. März um 18 Uhr, bei Cadus („Crisis Response Makerspace“ (CRM) im S-Bahnbogen in der Holzmarkstrasse 19, 10243 Berlin). Danach ist zum gemeinsamen „Demo-Basteln“ eingeladen, bei dem die Presse weitere Kontakte aufnehmen kann und Aktivist/innen für Statements zur Verfügung stehen.
Am 23. März startet die große Berliner Demonstration um 14 Uhr am Potsdamer Platz, sie zieht vorbei an Wikimedia und SPD-Zentrale via Wilhelmstraße zum Platz des 18. März am Brandenburger Tor. Dort wird die Abschlusskundgebung stattfinden.  Zeitgleich wird in vielen weiteren europäischen Städten demonstriert.

Ansprechpartner für die Presse:

berlingegen13@heartofcode.org

Bruno Kramm (Anmelder) brunokramm3@googlemail.com 0162 66 99 666



Newsletter März 2019

Liebe Freunde, liebe Freundinnen der DigiGes,

Unsere Arbeit ist gerade davon dominiert, die aktuelle Version der EU-Urheberrechtsreform zu verhindern. Darüberhinaus gab es aber auch noch einige andere Themen.

1. EU-Urheberrechtsreform
2. EU-Verordnung zu terroristischen Online-Inhalten
3. Brandenburger Polizeigesetz
4. Netzpolitischer Abend
5. DigiGes in den Medien

1. Urheberrechtsreform

Jetzt geht es darum, am 23. März 2019 europaweit noch einmal laut und deutlich zu zeigen, dass die Bürger*innen von dieser Urheberrechtsreform nichts halten. In Berlin rufen wir im Bündnis „Berlin gegen 13“ zu der Demonstration um 14:00 Uhr auf. Es geht vom Potsdamer Platz zum Brandenburger Tor.
https://berlingegen13.wordpress.com/
Unterstützende Organisationen und Einzelne sind herzlich willkommen. Gemeinsam sammeln wir für die Finanzierung der Demonstration (Bühne, LKW, Lautsprecheranlagen, usw.):

Die Demo am 2. März 2019 war viel größer geworden als erwartet und die Medien haben vielfältig darüber berichtet (siehe die lange Liste am Ende des Newsletters). Für die DigiGes hat Volker Grassmuck eine Rede gehalten.

Da kurz darauf bekannt wurde, dass es Bestrebungen in der EU gab, die Abstimmungen im EU-Parlament zeitlich vorzuziehen, haben wir kurzfristig mit aufgerufen zu einer Demo am 5. März 2019 vor der CDU-Zentrale in Berlin. Mitten in der Woche an einem verregneten Abend kamen dennoch kurzfristig 2.000 (laut Polizeischätzung) Leute zusammen.
Zugleich haben wir uns in einem offenen Brief gemeinsam mit weiteren Organisationen an EU-Parlamentarier gewandt. Wir fordern, die Bedenken und Proteste gegen Artikel 13 ernst zu nehmen und eine Vorverlegung der Abstimmung zu verhindern.

Auf unserer Internetseite unter der Rubrik „Mitmachen“  fassen wir unsere Kritik an der Urheberrechtsreform kurz zusammen und listen die Möglichkeiten auf, selbst aktiv zu werden:

Ruf deine Abgeordneten an!
Weitere Informationen zu dieser Aktion.
Weitere Informationen und Aktionen:
SaveYourInternet zu Art. 13!
Tell your MEP: Stop Copyright Censorship!

EU-Urheberrechtsreform – Schutz oder Zensur? Podiumsdiskussion in Hamburg,
19.3.2019, 19:00 – 21:00 Uhr u.a. mit Volker Grassmuck von der DigiGes.

2. EU-Verordnung zu terroristischen Online-Inhalten

Schon im letzten Newsletter informierten wir über unseren offenen Brief an deutsche Abgeordnete im Libe-Ausschuss.
Ihr könnt nun auch selbst aktiv werden: über die Kampagne von La Quadrature du Net kann man Abgeordnete kontaktieren.

3. Brandenburger Polizeigesetz

Die Digitale Gesellschaft hat sich an der „außerparlamentarischen Anhörung“ zum neuen Brandenburger Polizeigesetz am 2. März 2019 beteiligt und dort die geplanten Maßnahmen zu Quellen-Telekommunikationsüberwachung kritisiert.

4. Netzpolitischer Abend

Der nächste Netzpolitische Abend findet am 2. April 2019 auf der c-base ab 20:00 Uhr statt.
Programm:
In Kürze unter https://digitalegesellschaft.de/portfolio-items/netzpolitischer-abend/ zu finden.

Organisatorisches:
Ihr findet die c-base in der Rungestraße 20, 10179 Berlin.
Einlass ist wie immer ab 19:15 Uhr, los geht’s um 20:00 Uhr, selbstverständlich auch im Stream unter . Der Eintritt ist frei.

Hashtag:
Der Hashtag für den nächsten Abend ist #npa81. Gebraucht ihn gerne und reichlich, auch für Feedback und Fragen, wenn Ihr nicht vor Ort sein könnt.
Am 05. Februar fand unser 79. Netzpolitischer Abend statt. Für diejenigen unter euch, die nicht dabei sein konnten, gibt es die Videos hier zum Nachschauen.

Rückblick

Am 05. Februar fand unser 79. Netzpolitischer Abend statt. Für diejenigen unter euch, die nicht dabei sein konnten, gibt es die Videos hier zum nachschauen.

Die DigiGes hat eine neue Referentin; Elisabeth Niekrenz stellt sich vor.

Der Prototype Fund geht schon in die 2. Runde. Adriana Groh und Thomas Friese stellen das Thema der neuen Ausschreibung für engagierte Software- Projekte vor.

Adriana Groh und Thomas Friese beantworten Fragen zum Prototype Fund.

Künstliche Intelligenz, Algorithmen, Big Data und weitere digitale Technologien prägen zunehmend unseren Alltag. Doch was bedeutet das für die Einzelne oder den Einzelnen? Im ANNA-Projekt werden unterhaltsame sowie informative Inhalte aufbereitet, die dieser Frage anhand von Themen wie Wohnen, Einkaufen, Gesundheit oder soziales Leben nachgehen (ein Projekt von iRights e.V., gefördert: BMJV) Gina Schad und Nele Heise berichten Genaueres.

Vor Brexit und Europawahl stellt sich wieder einmal die Frage nach einer europäischen Öffentlichkeit. ARD-Chef Wilhelm will keine europäische Supermediathek mehr, sondern ein digitales Ökosystem – gemeinsam mit den Zeitungsverlegern. Volker Grassmuck berichtet über den aktuellen Stand und die Alternativen.

Die Videos des letzten Abends, also im März, konnten wir leider noch nicht auf unserer Internetseite einstellen. Zu sehen sind sie aber selbstverständlich auf der c-base-Seite.

5. DigiGes in den Medien

Berichte zur Demo gegen Uploadfilter am 2. März 2019
https://www.neues-deutschland.de/artikel/1113556.artikel-proteste-gegen-eu-urheberrechtsreform.html

https://www.t-online.de/digital/internet/id_85341518/tausende-demonstrieren-gegen-eu-urheberrechtsreform-.html

https://www.heise.de/newsticker/meldung/Demo-gegen-EU-Copyright-Reform-Artikel-13-Wir-sind-nicht-nur-die-Kinder-von-Google-4324615.html

https://www.morgenpost.de/berlin/article216564853/3500-Menschen-bei-Berlin-Demo-gegen-Urheberrechtsreform.html

http://www.taz.de/!5577549/

https://www.tagesspiegel.de/gesellschaft/medien/uploadfilter-tausende-demonstrieren-in-berlin-gegen-neues-urheberrecht/24059332.html

https://www.golem.de/news/berlin-gegen-artikel-13-axel-voss-bewegt-massen-im-kampf-fuer-das-freie-internet-1903-139747.html

https://www.bz-berlin.de/berlin/3500-menschen-bei-demo-gegen-urheberrechtsreform

https://www.watson.de/digital/deutschland/621909465-berlin-gegen-13-demo-gegen-artikel-13-und-eu-urheberrechtsreform

https://www.pcwelt.de/news/Artikel-13-3.500-Teilnehmer-bei-Demo-in-Berlin-10549115.html

https://www.handelsblatt.com/politik/deutschland/artikel-13-diesel-filter-statt-upload-filter-demonstration-gegen-eu-urheberrechtsreform/24058706.html

https://www.berliner-zeitung.de/berlin/artikel-13-3500-menschen-demonstrieren-gegen-internet-urheberrechtsreform-32132846

https://www.mdr.de/nachrichten/politik/ausland/demos-gegen-urheberrechtsreform-100.html

5.000 Menschen demonstrieren in Berlin gegen Uploadfilter und rufen: „Wir sind keine Bots“!

Demonstration gegen Artikel 13

International:
https://derstandard.at/2000098868943/Tausende-demonstrierten-in-Berlin-gegen-die-EU-Urheberrechtsreform

https://futurezone.at/netzpolitik/tausende-demonstrierten-gegen-die-eu-urheberrechtsreform-und-uploadfilter/400423433

https://www.dw.com/en/thousands-in-berlin-protest-eus-online-copyright-plans/a-47753399

TV:
https://www.rbb24.de/politik/beitrag/2019/03/eu-urheberrechtsreform-berlin-demonstration-artikel-13.html

http://www.tagesschau.de/multimedia/sendung/bab/bab-4559~_bab-sendung-517.html

https://www.zdf.de/nachrichten/heute/tausende-menschen-demonstrieren-gegen-uploadfilter-100.html

https://www.zdf.de/nachrichten/heute/uploadfilter-angst-um-junge-waehler-100.html

https://www.tagesschau.de/multimedia/video/video-511423.html

Radio:
https://www.deutschlandfunk.de/berlin-gegen-13-proteste-gegen-eu-urheberrecht.1939.de.html?drn:news_id=982485

Tagung Digitalcourage

https://www.sonntagsblatt.de/artikel/medien/digitalcourage-experten-fordern-staerkeren-einsatz-fuer-digitale-rechte

Zivilgesellschaft und Digitalverbände warnen: Durchdrücken der Urheberrechtsreform inklusive Uploadfilter ist der falsche Weg!

Gemeinsam mit weiteren Organisationen fordern wir in einem offenen Brief Gehör für die Bedenken und Proteste gegen Artikel 13.

06. März 2019

Sehr geehrter Herr Weber MEP,

Sehr geehrter Herr Bullmann MEP,

Sehr geehrter Herr Verhofstadt MEP,

Sehr geehrte Frau Keller MEP,

Sehr geehrte Frau Zimmer MEP,

die von der EVP-Fraktion beantragte mögliche Vorverlegung der Plenarabstimmung sehen wir als äußerst schädlich für das Anliegen einer ausbalancierten Netzregulierung an. Gerade in der Außenwirkung und mit Blick auf das massiv gestiegene Interesse vieler junger Europäerinnen und Europäer würde das ein verheerendes Bild abgeben.

Die Diskussion um die Regelungen in Artikel 13 des Richtlinienentwurfs wird mit großer Energie geführt. Eine Verschiebung der Entscheidung auf einen Zeitpunkt nach der Europawahl und mögliche Anpassungen in einer neuen Verhandlungsrunde könnten das Scheitern einer an sich notwendigen Reform verhindern, an der so viele Akteure lange und intensiv mitgewirkt haben. Bei der Abwägung von Grundrechten und Entscheidungen zu hoch komplizierten und polarisierenden Themen ist es für den demokratischen Prozess wichtig, dass alle Akteure hinreichend gehört werden. Eine Vorverlegung würde diesen Prozess untergraben.

Wir Unterzeichnende, Vertreterinnen und Vertreter der Zivilgesellschaft, der Wirtschaft und der Internetkultur, bitten Sie aufgrund der aktuellen Entwicklungen erneut, die faktisch verpflichtende Einführung von Upload-Filtern zu verhindern.

Artikel 13 ist zum Mühlstein um den Hals der dringend notwendigen Aktualisierung des europäischen Urheberrechts geworden. Sollte die Betreiberhaftung in der geplanten Form ausgeweitet werden, werden klare Anreize gesetzt, um auch solche Inhalte zu blockieren, die rechtmäßig eingestellt wurden (Overblocking). Die Plattformen werden versuchen, ihr Haftungsrisiko zu minimieren und nur noch ihnen bekannte und geprüfte Inhalte erlauben. Wirksame Maßnahmen, die rechtmäßig eingestellte Inhalte unmittelbar vor entsprechender Blockung schützen, sind im aktuellen Text nicht vorgesehen. Die vorgesehenen Widerspruchslösungen begegnen dem nur unzureichend. Eine der Erfolgsformeln des Internets, das Teilen von Informationen und Inhalten, ist damit in Gefahr.

Wir fordern Sie daher im Namen der Nutzerinnen und Nutzer, aber auch der Kreativen auf, die Entscheidung nicht vorzuverlegen, besser sogar zu verschieben, um nachhaltigen Schaden am Bild der europäischen Gesetzgebung insbesondere bei jungen Leuten zu verhindern. Die Parlamentarierinnen und Parlamentarier brauchen gerade jetzt Zeit, um das Für und Wider abzuwägen.

Mit freundlichen Grüßen

Wikimedia Deutschland – Gesellschaft zur Förderung Freien Wissens e.V.

Verbraucherzentrale Bundesverband e.V.

Bundesverband Deutsche Startups e. V.

Bundesverband IT-Mittelstand e. V.

Bundesverband Digitale Wirtschaft (BVDW) e. V.

Deutscher Gründerverband e. V.

eco – Verband der Internetwirtschaft e. V.

D64 – Zentrum für digitalen Fortschritt e. V.

LOAD e.V. – Verein für liberale Netzpolitik

Digitale Gesellschaft e. V.

Open Knowledge Foundation Deutschland e. V.

Gesellschaft Katholischer Publizisten Deutschlands e. V.

Jugendpresse Deutschland e. V.

Deutscher Bundesjugendring e. V.

80. Netzpolitischer Abend

Programm:

Den nächsten Netzpolitischen Abend gibt’s am Dienstag, den 05. März 2019, wie immer ab 20 Uhr auf der c-base.

Elisabeth Niekrenz: Die Anti-Terrorpropaganda-Verordnung

Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte will die EU gegen Terrorpropaganda im Netz vorgehen. Eine ausgedehnte Definition terroristischer Inhalte, die auch Blockadeaufrufe umfassen kann, Uploadfilter und die Verpflichtung für Plattformen, Inhalte binnen einer Stunde zu löschen, könnten eine europaweite Infrastruktur zur Kontrolle des Internets schaffen. Elisabeth Niekrenz erklärt den aktuellen Entwurf und berichtet über das
Gesetzgebungsverfahren sowie laufende Kampagnen gegen die Verordnung.

Katharina Nocun and Basanta E. P. Thapa: Public Money, Public Code

Die Free Software Foundation Europe (FSFE) spricht sich dafür aus, Freie Lizenzen zum Standard bei Eigenentwicklungen der öffentlichen Hand zu machen. Freie Lizenzen bieten nicht nur Chancen für Kostenersparnis durch Synergieeffekte und mehr Transparenz. Sie sind auch der beste Schutz vor Lock-In-Situationen und Abhängigkeit. Katharina Nocun und Basanta E. P. Thapa stellen die aktuelle Publikation zur Kampagne vor und geben konkrete Hinweise, welche Updates bei Ausschreibungen sinnvoll wären.

Kim Arora: Aadhaar and Privacy in India
A quick introduction to India’s national biometric ID project from enrolling over 1.2 billion citizens to being challenged in court over privacy. (Plus, a look at some of the data breaches)

Kim Arora, Journalistin aus Indien und derzeit Gastwissenschaftlerin am WZB, informiert über diese Datenbank.

Die Privacy Week Berlin 2019 wird vorgestellt werden.

Organisatorisches:

Ihr findet die c-base in der Rungestraße 20, 10179 Berlin. Einlass ist wie immer ab 19:15 Uhr, los geht’s um 20 Uhr, selbstverständlich auch im Stream unter http://c-base.org. Der Eintritt ist frei.

Hashtag:

Der Hashtag für diesen Abend ist #npa080, gebraucht ihn gerne und reichlich, auch für Feedback und Fragen, wenn ihr nicht vor Ort sein könnt.

00002-langer-atem-marathon-quelle

Rückblick
Am 05. März 2019 fand unser 80. Netzpolitischer Abend statt. Für diejenigen unter Euch, die nicht live dabei sein konnten, gibt es hier die Videos zum Nachschauen:

Elisabeth Niekrenz: Die Anti-Terrorpropaganda-Verordnung

Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte will die EU gegen Terrorpropaganda im Netz vorgehen. Eine ausgedehnte Definition terroristischer Inhalte, die auch Blockadeaufrufe umfassen kann, Uploadfilter und die Verpflichtung für Plattformen, Inhalte binnen einer Stunde zu löschen, könnten eine europaweite Infrastruktur zur Kontrolle des Internets schaffen. Elisabeth Niekrenz erklärt den aktuellen Entwurf und berichtet über das
Gesetzgebungsverfahren sowie laufende Kampagnen gegen die Verordnung.

Katharina Nocun and Basanta E. P. Thapa: Public Money, Public Code

Die Free Software Foundation Europe (FSFE) spricht sich dafür aus, Freie Lizenzen zum Standard bei Eigenentwicklungen der öffentlichen Hand zu machen. Freie Lizenzen bieten nicht nur Chancen für Kostenersparnis durch Synergieeffekte und mehr Transparenz. Sie sind auch der beste Schutz vor Lock-In-Situationen und Abhängigkeit. Katharina Nocun und Basanta E. P. Thapa stellen die aktuelle Publikation zur Kampagne vor und geben konkrete Hinweise, welche Updates bei Ausschreibungen sinnvoll wären.

Kim Arora: Aadhaar and Privacy in India
A quick introduction to India’s national biometric ID project from enrolling over 1.2 billion citizens to being challenged in court over privacy. (Plus, a look at some of the data breaches)

Kim Arora, Journalistin aus Indien und derzeit Gastwissenschaftlerin am WZB, informiert über diese Datenbank.

Alle anderen Videos unserer Netzpolitischen Abendende findet Ihr auf unserem Youtube-Channel.