Blog

Beschwerde gegen DSGVO-widrige verhaltensbasierte Werbung

Die Digitale Gesellschaft beteiligt sich an einer europaweiten Beschwerdewelle, angeführt von der Civil Liberties Union for Europe, gegen verhaltensbasierte Online-Werbung.

Read More…

Kommentare deaktiviert für Beschwerde gegen DSGVO-widrige verhaltensbasierte Werbung

82. Netzpolitischer Abend

Den nächsten Netzpolitischen Abend gibt’s am Dienstag, den 04. Juni 2019, wie immer ab 20 Uhr auf der c-base (Rungestraße 20, 10179 Berlin).

Read More…

1 Comment

Pressemitteilung: Digitale Gesellschaft e.V. empfiehlt Förderung dezentraler und quelloffener Dienste statt Interoperabilitätspflicht sozialer Netzwerke

Im Rahmen einer Konsultation des Bundesministeriums der Justiz und für Verbraucherschutz hat die Digitale Gesellschaft e.V. eine Stellungnahme zum Thema Interoperabilität bei sozialen Netzwerken abgegeben. In dieser rät die Digitale Gesellschaft von einer Interoperabilitätsverpflichtung für soziale Netzwerke ab: „Eine mögliche Interoperabilitätsverpflichtung für soziale Netzwerke birgt für Nutzerinnen und Nutzer einfach zu viele Unwägbarkeiten, vor allem beim Datenschutz und bei der Verschlüsselung“, sagt Elisabeth Niekrenz, politische Referentin der Digitalen Gesellschaft.

Read More…

Kommentare deaktiviert für Pressemitteilung: Digitale Gesellschaft e.V. empfiehlt Förderung dezentraler und quelloffener Dienste statt Interoperabilitätspflicht sozialer Netzwerke

Stellungnahme der Digitalen Gesellschaft e. V. zur Konsultation des Bundesministeriums der Justiz und für Verbraucherschutz zu Interoperabilität und Datenportabilität bei sozialen Netzwerken

Stellungnahme als pdf

I. Zusammenfassung

Die Digitale Gesellschaft e.V. befürwortet Interoperabilität als Ziel der Technikgestaltung. Interoperabilität ist ein Erfolgsprinzip des freien und offenen Internets. Jedoch wirft die Forderung nach Interoperabilität sozialer Netzwerke [1] eine Reihe von Unwägbarkeiten für die Rechte der Nutzenden auf. Angesichts dieser offenen Fragen empfehlen wir die pragmatische Förderung einer quelloffenen und dezentralen Dienstelandschaft durch öffentliche Förderprogramme und die Durchsetzung bestehender Regeln. Von einer gesetzlichen Verpflichtung zur Interoperabilität raten wir derzeit ab.

Read More…

Kommentare deaktiviert für Stellungnahme der Digitalen Gesellschaft e. V. zur Konsultation des Bundesministeriums der Justiz und für Verbraucherschutz zu Interoperabilität und Datenportabilität bei sozialen Netzwerken

Artikel zu Gesundheitsdaten

Welchen Schutz brauchen sensible Gesundheitsdaten?

Die Digitale Gesellschaft e.V. hat den Artikel „Welchen Schutz brauchen sensible Gesundheitsdaten?“ zu Fragen der elektronischen Speicherung von Gesundheitsdaten veröffentlicht. Anlass ist das Terminservice- und Versorgungsgesetz (TSVG), das der Bundestag am 14. März 2019 beschlossen hat. Dieses verpflichtet die Krankenkassen, spätestens ab 2021 den Versicherten elektronische Patientenakten anzubieten.

Der Artikel geht auf die Fragen ein:
Was bedeutet diese Aktualisierung der elektronischen Gesundheitskarte (eGK) für die Versicherten? Wollen sie ihre Gesundheitsdaten überhaupt auf zentralen Servern speichern lassen? Worin unterscheidet sich die ePatientenakte der eGK von der elektronischen Gesundheitsakte, die viele Krankenversicherungen den Versicherten bereits anbieten?

Gerne kann der Artikel veröffentlicht oder zusammengefasst und verlinkt werden. Eine pdf-Daten kann gerne angefordert werden.

Link zur pdf-Datei: https://digitalegesellschaft.de/wp-content/uploads/2019/05/sensible_Gesundheitsdaten.-1.pdf

Kommentare deaktiviert für Artikel zu Gesundheitsdaten

Welchen Schutz brauchen sensible Gesundheitsdaten?

Elektronische Gesundheitskarte mit elektronischer Patientenakte und elektronische Gesundheitsakte

Das Terminservice- und Versorgungsgesetz (TSVG), das der Bundestag am 14. März 2019 beschlossen hat, verpflichtet die Krankenkassen, spätestens ab 2021 den Versicherten elektronische Patientenakten anzubieten. Auf die darin gespeicherten Daten sollen die Versicherten auch mittels Smartphone oder Tablet zugreifen können. Sie sollen also auch ohne Arzt Zugriff auf ihre Daten haben.
Was bedeutet diese Aktualisierung der elektronischen Gesundheitskarte (eGK) für die Versicherten? Wollen sie ihre Gesundheitsdaten überhaupt auf zentralen Servern speichern lassen? Worin unterscheidet sich die ePatientenakte der eGK von der elektronischen Gesundheitsakte, die viele Krankenversicherungen den Versicherten bereits anbieten? Read More…

Kommentare deaktiviert für Welchen Schutz brauchen sensible Gesundheitsdaten?

Newsletter Mai 2019

Liebe Freunde und Freundinnen der DigiGes,

heute möchten wir Euch mit dem Newsletter auf aktuelle Termine aufmerksam machen. Beim Netzfest, dem digitalen Volksfest in Berlin am 4. und 5. Mai 2019, haben wir einen Stand. Wir freuen uns über Eure Besuche. Dort gibt es auch zwei Vorträge von uns.
Auf der anschließenden re:publica referieren wir ebenfalls.
Der Netzpolitische Abend fällt aus diesen Gründen im Mai aus. Wir freuen uns auf den Termin im Juni.

1. Netzfest
2. re:publica
3. Terror Content Regulation: Die Vorschläge von Kommission und LIBE-Ausschuss im Überblick
4. Netzpolitischer Abend
5. Netzpolitischer Abend – Spezial
6. Hinweise
7. DigiGes in den Medien

1. Netzfest

Am 4. und 5. Mai 2019 findet in Berlin, im Park am Gleisdreieck, wieder das Netzfest statt. Wir haben einen Infostand, bieten Informationsmaterialien und freuen uns über Besuche von und Gespräche mit Euch.

Folgende Veranstaltungen mit Vertretern und Vertreterinnen der DigiGes finden statt:

Sensible Gesundheitsdaten brauchen besonderen Schutz! – Zur Digitalisierung im Gesundheitssystem – Elke Steven

Unsere Medien mitgestalten. Bürgerbeteiligung zur Zukunft öffentlich-rechtlicher Medien – Volker Grassmuck

2. re:publica

Vom 6. bis 8. Mai findet die re:publica statt. Die DigiGes ist dort ebenfalls vertreten und informiert in einem Talk über die geplante EU-Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte:

Terrorfilter?! Hintergrund und Analyse der geplanten EU-Terror-Content-Verordnung – Elisabeth Niekrenz

3. Terror Content Regulation: Die Vorschläge von Kommission und LIBE-Ausschuss im Überblick

In einem ausführlichen Blogbeitrag hat die DigeGes die Entwürfe von Kommission und Parlament zu einer Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte analysiert. Welche Probleme die Entwürfe für Meinungs- und Informationsfreiheit mit sich bringen und was sie Anbieterinnen und Anbietern von Hostingdiensten abverlangen, kann hier nachgelesen werden:

Außerdem stellt die DigiGes gemeinsam mit Tomas Rudl und Ingo Dachwitz von Netzpolitik.org im Netzpolitik Podcast, Folge 177 – Was heißt hier eigentlich Terrorpropaganda? die geplante Verordnung vor, gibt Einblicke in die Hintergründe und übt Kritik. https://netzpolitik.org/2019/npp172-was-heisst-hier-eigentlich-terrorpropaganda/

4. Netzpolitischer Abend

Parallel zur re:publica wollen wir keinen Netzpolitischen Abend organisieren. Deshalb findet der nächste NPA erst am 4. Juni 2019 statt. An diesem Abend werden wir einen Rückblick auf ein Jahr Datenschutzgrundverordnung organisieren. Das wird spannend werden. Merkt Euch den Termin vor!

Die Videos vom 81. Netzpolitischen Abend im April sind auf unserer Seite eingestellt: https://digitalegesellschaft.de/2019/03/81-netzpolitischer-abend/

Alle vorherigen Videos der Netzpolitischen Abende können auf youtube weiterhin angeschaut werden:

5. Netzpolitischer Abend – Spezial

Am 16.04.2019 haben wir in Kooperation mit ALEX Berlin einen Netzpolitischen Abend Spezial zur Digitalpolitik der EU ausgerichtet. Dabei diskutierten Susanne Zels (CDU), Dr. Laura Sophie Dornheim (Grüne), Matthias Ecke (SPD), Juliane Hüttl (FDP), Konstanze Kriese (Linke) und Dr. Patrick Breyer (Piraten) anlässlich der anstehenden Wahl zum Parlament Fragen rund um Datenschutz und Plattformregulierung in der EU. Es moderierte John Weitzmann. Die Diskussion gibt es hier zum Nachschauen.

6. Hinweise

Martin Baer und Claus Wischmann haben einen Film produziert: „Der illegale Film„. Der Film berührt nicht nur das Thema Urheberrechtsreform, sondern auch Fragen wie Video-Überwachung, Kontrolle über eigene Daten (Fotos) auf sozialen Netzwerken etc. Martin Baer schrieb uns, weil er seit langem Abonnent des Newsletters ist. Ein sehenswerter Film.

Selbstbestimmt Digital organisiert mehrere Veranstaltungen zur Europawahl: Europawahl 2019 – unsere Entscheidung? Wie Algorithmen, Fake News und Social Bots die digitale Öffentlichkeit beeinflussen
Dies geschieht auch in Zusammenarbeit mit dem Quartiersmanagement Pankstraße, mit dem wir in unserem Projekt „Sicher und Bewusst im Netz“ in der Schule zusammenarbeiten.
Termine und Veranstaltungsorte

08.05.2019, 18:30 – 21:00 Uhr Quartiersmanagement Reinickendorfer Straße / Pankstraße
Prinz-Eugen-Straße 1, 13347 Berlin
13.05.2019, 18:30 – 21:00 Uhr Berliner Landeszentrale für politische Bildung
Hardenbergstraße 22-24, 10623 Berlin
21.05.2019, 18:30 – 21:00 Uhr Quartiersmanagement Reinickendorfer Straße / Pankstraße
Prinz-Eugen-Straße 1, 13347 Berlin

7. Digiges in den Medien

https://www.heise.de/tp/features/EU-Parlament-stimmt-fuer-Terror-Content-Verordnung-4402019.html

EU-Parlamentsausschuss: Keine Uploadfilter gegen Terror, aber kurze Löschfrist

NPP172: Was heißt hier eigentlich Terrorpropaganda?

Netzpolitischer Abend Spezial zur EU-Wahl am 16. April

https://www.unicum.de/de/studentenleben/zuendstoff/eu-urheberrechtsreform-artikel-13 

Kommentare deaktiviert für Newsletter Mai 2019

Terror Content Regulation: Die Vorschläge von Kommission und LIBE-Ausschuss im Überblick

Mit einer neuen Verordnung möchte die EU-Kommission terroristische Inhalte auf Internetplattformen eindämmen. Darin sind Befugnisse vorgesehen, die leicht verwendet werden können, um anderweitig unerwünschte Inhalte EU-weit aus dem Netz zu verdrängen. Zudem wird den Plattformen einiges abverlangt: Sie sollen Inhalte binnen einer Stunde nach einer behördlichen Anordnung sperren und durch sogenannte proaktive Maßnahmen terroristische Inhalte selbst verhindern.

Von der Selbstregulierung zur Verordnung

Die geplante Verordnung ist nicht der erste Schritt zum Vorgehen gegen terroristische Inhalte. 2015 startete die EU-Kommission das EU-Internetforum (Pressemitteilung der Kommission vom 03.20.2015), einen Kooperationsrahmen zwischen der Kommission und Vertretern der Internetwirtschaft. Mittlerweile sind die meisten großen Internetdienstleister beteiligt. Auf deren Initiative wird seit 2016 an einer Datenbank gearbeitet, die von den Unternehmen gemeinschaftlich mit Fingerprints als terroristisch klassifizierter Inhalte gefüttert wird, die Database of Hashes (Pressemitteilung der Kommission vom 06.12.2017). Ebenfalls 2015, in Reaktion auf die Anschläge in Frankreich, richtete Europol eine Meldestelle für Internet-Inhalte, die Internet Referral Unit (IRU), ein, wie Netzpolitik.org berichtete. Diese kann Inhalte mit der Empfehlung, sie wegen eines Verstoßes gegen Nutzungsbedingungen zu sperren, an Plattformen melden. Im April 2018 forderten Seehofer und der französische Innenminister in einem Schreiben an EU-Kommission ein schärferes Vorgehen gegen Terror-Propaganda im Netz: Terroristische Inhalte sollen binnen einer Stunde nach Veröffentlichung entfernt werden, dies müsse durch Sanktionsmechanismen sichergestellt werden. Dabei sollen terroristische Inhalte nur den Anfang machen, zukünftig wünschen sich die Innenminister, dass auch gegen sonstige rechtswidrige Inhalte mit diesen Mitteln vorgegangen wird.

Im September 2018 veröffentlichte die Kommission einen Verordnungsentwurf, der das umzusetzen versucht: Die Sperrung auf Anordnung mit einstündiger Frist, Uploadfilter und ein Rechtsrahmen für Meldungen analog der Referrals von Europol.

Der federführende Ausschuss des europäischen Parlaments für bürgerliche Freiheiten, Justiz und Inneres (LIBE) hat einige Verbesserungen vorgeschlagen, unter anderem Ausnahmen für journalistische Inhalte geschaffen und die Verpflichtung zu Uploadfiltern gestrichen. Auch dieser Entwurf kann aber Aufrufe zu zivilem Ungehorsam als terroristische Inhalte erfassen und behält die einstündige Sperrfrist bei. Am 17.04.2019 wird im Parlament über die Ausschussfassung abgestimmt. Nach den Wahlen werden sich Kommission, Rat und Parlament in den Trilogverhandlungen um eine Einigung bemühen.

Im Folgenden werden der Entwurf der Kommission und die Änderungsvorschläge des LIBE-Ausschusses kritisch vorgestellt.

Der Kommissionsentwurf

Der Text sieht im Kern drei Instrumente zu Verhinderung der Verbreitung als terroristisch klassifizierter Inhalte vor: die verbindliche Entfernungsanordnung (Artikel 4), unverbindliche Meldungen (Artikel 5) und proaktive Maßnahmen (Artikel 6).

Entfernungsanordnung: Stundenfrist und europaweiter Export von Meinungsfreiheitsbeschränkungen

Artikel 4 normiert die Entfernungsordnung. Eine solche Anordnung kann von den Behörden eines jeden Mitgliedsstaates an Hostingdiensteanbieter gesendet werden. Welche Behörde zuständig ist, können die Staaten nach Artikel 17 festlegen. In der Anordnung muss unter anderem die URL des zu sperrenden Inhalts angegeben sein. Der Anbieter ist dann verpflichtet, den Beitrag binnen einer Stunde EU-weit zu blockieren. Tut er es nicht, kann – jedenfalls bei systematischen Verstößen – ein Bußgeld in Höhe von bis zu 4 % des weltweiten Jahresumsatzes verhängt werden, Artikel 18 Absätze 1 und 4. Eine inhaltliche Prüfung der Anordnung durch die Hostingdiensteanbieter ist nicht vorgesehen, nur wenn ihnen die Ausführung faktisch unmöglich ist, etwa wegen höherer Gewalt oder weil sie offensichtlich fehlerhaft ist, sind sie berechtigt, ihr nicht nachzukommen.

Damit können erhebliche Beschränkungen der Meinungsfreiheit einhergehen. Besonders bemerkenswert ist, dass jeder Mitgliedsstaat befugt sein soll, eine EU-weite Sperrung anzuordnen. Zum Beispiel kann eine polnische Behörde eine Entfernungsanordnung gegen einen Beitrag, der von einem Menschen in Deutschland auf einer in Deutschland ansässigen Plattform hochgeladen wurde, entfernen lassen. Das könnte ein kritischer Post über die polnische Regierung sein. Eine solche Anordnung wäre natürlich rechtswidrig. Die Möglichkeit, sich gerichtlich dagegen zu wehren, soll der Person, die den Inhalt hochgeladen hat, aber in dem Staat zustehen, der die Entfernungsanordnung erlassen hat, also in Polen. Da die EU-Kommission derzeit ein Vertragsverletzungsverfahren gegen Polen wegen Verstößen gegen die Rechtsstaatlichkeit betreibt, ist erkennbar, dass sie selbst davon ausgeht, dass faire Verfahren vor polnischen Gerichten nicht gewährleistet sind.

Solche transnationalen Befugnisse werfen, gerade wenn es um einen hochpolitischen Begriff wie Terrorismus geht, Probleme auf: Etwa die Regierungen von Schweden und Ungarn können durchaus verschiedene Auffassungen darüber haben, ob ein Interview mit Mitgliedern kurdischer oder tschetschenischer Organisationen als Glorifizierung von Terrorismus zu klassifizieren ist, wie Daphne Keller vom Center for Internet and Society an der Stanford Law School erläutert, die einen Export von Meinungsfreiheitsbeschränkungen befürchtet: Werden bestimmte politische Gruppen in einem EU-Staat als terroristisch betrachtet, so können Inhalte, die sich affirmativ zu deren Handlungen verhalten, im gesamten Unionsgebiet blockiert werden. Martin Scheinin, ehemaliger UN-Sonderberichterstatter und Experte für Menschenrechte, spricht gegenüber Spiegel Online von einer „völlig neue[n] Dimension transnationaler Macht“.

Die Entfernungsfrist von nur einer Stunde ist für kleine und mittlere Angebote existenzbedrohend. Sie erfordert von den Hostingdiensten praktisch die Einrichtung eines 24-Stunden-Dienstes, was für kleine und mittlere Plattformen – je nach finanzieller Ausstattung – in der Regel nicht machbar sein wird. Damit wird ihnen der Marktzugang erheblich erschwert, was im Ergebnis den jetzt bereits etablierten großen Angeboten einen Wettbewerbsvorteil verschafft. Darüber hinaus bleibt zu bezweifeln, ob die Behörden überhaupt in der Lage sein werden, eine nennenswerte Anzahl an problematischen Beiträgen binnen kurzer Zeit zu erkennen. Gerade dann, wenn ein Beitrag bereits seit längerer Zeit online war, als die Entfernungsanordnung eingetroffen ist, ist es unverhältnismäßig, dem Hostingdiensteanbieter eine nur einstündige Frist aufzuerlegen.

Meldungen: Umgehung rechtsstaatlicher Garantien

Artikel 5 enthält mit den Meldungen (referrals), eine Rechtsgrundlage analog der bisherigen Praxis der IRU bei Europol. Die Kernidee ist: nationale Behörden melden einen Inhalt an die jeweilige Plattform mit dem Hinweis, diese möge prüfen, ob ein Verstoß gegen ihre Nutzungsbedingungen vorliege. Der Hostingdienst muss sodann diese Prüfung mitteilen und der Behörde das Ergebnis mitteilen. Er ist nicht zur Entfernung verpflichtet. Zunächst ist nicht klar, weshalb eine Behörde, wenn sie einen Inhalt als terroristisch erkennt, ihn nicht verbindlich entfernen lassen soll, wie Nima Mafi-Gudarzi auf Legal Tribune Online erläutert.

Entfernt ein Hoster einen Inhalt wegen eines Verstoßes gegen seine Nutzungsbedingungen, so findet ein anderer grundrechtlicher Maßstab Anwendung als bei einer bindenden behördlichen Anordnung. Grundsätzlich sind die Plattformen nicht an Grundrechte gebunden und können festlegen, dass bestimmte Beiträge, die von der Meinungsfreiheit gedeckt sind, auf ihren Seiten nicht erscheinen dürfen. Wenn staatliche Akteure, die nur aufgrund einer bestimmten Rechtsgrundlage Inhalte löschen dürfen, den Umweg über eine scheinbare juristische Verantwortung Privater wählen, dann weckt das zumindest den Verdacht, dass sie Entfernungen veranlassen wollen, die jenseits ihrer Befugnisse liegen. Damit könnten auch Behörden in Staaten, in denen ein rechtsstaatliches Verfahren zu erwarten ist, versuchen, Beiträge verschwinden zu lassen, für deren Löschung auf Basis nationalen oder internationalen Rechts keine Grundlage bestünde. Inwiefern die betroffenen Personen, die den Inhalt hochgeladen haben, gegen die Meldung selbst juristisch vorgehen können, ist ungewiss.

Eine mögliche Ratio hinter dieser Norm kann darin liegen, mit der drakonischen Bußgeldandrohung behutsam umzugehen und Plattformen, solange sie sich grundsätzlich kooperativ zeigen, eher Meldungen zuzustellen. Erst im Fall mangelnder Kooperation würde man dann Entfernungsanordnungen erlassen. Damit könnte ein großer Teil der Inhaltssperrungen auf Basis der Kooperation zwischen Behörden und Plattformen bewältigt werden – im Zweifel zu Lasten der Inhalteanbieterinnen und -anbieter, denen die rechtliche Überprüfung erschwert wird.

Das Internet Archive berichtete, von den französischen Behörden bereits 550 falsche Meldungen zur Löschung von Inhalten erhalten zu haben und hat einige besonders offensichtliche Fehlmeldungen veröffentlicht.

Proaktive Maßnahmen: Uploadfilter

Schließlich können Behörden auf Grundlage des Textes von den Hostingsdiensten verlangen, proaktive Maßnahmen zu ergreifen, um die Verfügbarkeit terroristischer Inhalte einzuschränken. Darunter kann man sich insbesondere Uploadfilter, also Algorithmen, die Inhalte erkennen und löschen sollen, vorstellen. Im Einzelfall können die Behörden bestimmen, welche proaktive Maßnahme genau implementiert werden soll, Artikel 6 Absatz 4.

Automatisierte Filter sind nicht in der Lage, den Kontext von Ideen und Äußerungen einzuschätzen und daher massiv fehleranfällig. Die Plattform Youtube, die sie bereits auf freiwilliger Basis einsetzt, sperrte zehntausende Videos, die Kriegsverbrechen des IS dokumentierten, weil in ihnen IS-Flaggen zu sehen waren. Jeder einzelne legale Inhalt, der fehlerhaft gelöscht wird, ist eine unzulässige Verletzung der Meinungsfreiheit. Eine Fehlerquote, die jeder Filter aufweist, ist hier absolut inakzeptabel. Es wird eine Infrastruktur zur Kontrolle bereitgestellt, deren Anwendungsbereichs je nach Interessenlage auch noch stärker auf politisch unerwünschte Inhalte ausgedehnt werden kann, als diese ohnehin schon in der Terrordefinition enthalten sind.

Einige Stimmen in der Rechtswissenschaft sprechen sich dafür aus, eine staatlich angeordnete automatische Vorkontrolle als durch das Grundgesetz verbotene Zensur einzuordnen.

Welche Dienste von den Regeln betroffen sein sollen

Artikel 2 Absatz 1 des Kommissionsentwurfs definiert die Hostingdiensteanbieter, die unter die neuen Regeln fallen sollen: Damit sind Anbieter von „Diensten der Informationsgesellschaft“ gemeint, „die darin bestehen, die durch einen Inhalteanbieter bereitgestellten Informationen im Auftrag des Inhalteanbieters zu speichern und die gespeicherten Informationen Dritten zur Verfügung zu stellen.“ Diese Definition ist extrem weitgehend. Sie umfasst soziale Netzwerke, Blogs und Nachrichtenportale mit Kommentarfunktion, Foren, Videostreamingdienste, File-Sharing, Cloud-Dienste. Nicht erforderlich ist die öffentliche Zugänglichkeit der Inhalte.

Kleinere und mittlere Anbieter, darunter nichtkommerzielle, haben nicht die technischen und personellen Möglichkeiten, Löschungen binnen einer Stunde durchzuführen oder hochkomplexe Filtersysteme einzurichten. Viele wären deshalb gezwungen, ihre Angebote für benutzergenerierten Content einzustellen oder die Ausführung an größere Digitalkonzerne auszulagern. Damit wird einer weiteren Monopolisierung der Internetwirtschaft Vorschub geleistet.

Die Definition terroristischer Inhalte

Was unter terroristischen Inhalten zu verstehen ist, regelt Artikel 2 Absatz 5. Erfasst sind der Aufruf zu, die Befürwortung von oder die Ermutigung zu terroristischen Straftaten und zur Mitwirkung daran, ebenso Informationen, die terroristische Vereinigungen fördern. Schließlich fallen technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten unter den Begriff.

Was terroristische Straftaten sind, legt die von Menschenrechtsorganisationen stark kritisierte RL 2017/541 fest. Dass die Verordnung an diese Richtlinie anknüpft, ist aus mehreren Gründen problematisch:

Erstens handelt es sich bei einer Richtlinie nicht um ein unmittelbar anwendbares Gesetz, sondern um eine Vorgabe dafür, welche Gesetze Mitgliedsstaaten erlassen müssen. Daher ist der Normtext viel zu unpräzise, um eine trennscharfe Subsumtion von Sachverhalten zu ermöglichen. Wie der ehemalige UN-Sonderberichterstatter und Grundrechtsexperte Martin Scheinin darlegt, ist das Anknüpfen an Straftatbestände für eine Bestimmung über Inhaltslöschungen strukturell ungeeignet, denn sie sind dafür konstruiert, in einem Gericht nach einer Beweisaufnahme angewendet zu werden. Sie enthalten insbesondere subjektive Elemente wie Vorsatz und zum Teil spezifische Absichten, die anhand eines bloßen Postings in der Regel nicht feststellbar sind.

Zweitens umfasst die Richtlinie von 2017 Tatbestände, deren Klassifizierung als Terrorismus höchst fragwürdig ist: Genannt ist etwa das Kapern von öffentlichen Verkehrsmitteln mit dem Ziel, öffentliche Stellen oder eine internationale Organisation rechtswidrig zu einem Tun oder Unterlassen zu zwingen. Das kann auch Aktionen zivilen Ungehorsams erfassen.

Besonders schwerwiegend ist der Einschluss von „technische[n] Anleitungen oder Methoden für das Begehen terroristischer Straftaten“. Über solche Methoden berichten regelmäßig Journalisten, NGOs oder Behörden, deren Tätigkeiten definitiv nicht erfasst sein sollten. Aus dieser Bestimmung ergibt sich eine erhebliche Gefährdung der Presse- und Informationsfreiheit.

So haben auch der UN-Sonderberichterstatter für Meinungsfreiheit, David Kaye, der UN-Sonderberichterstatter für Datenschutz, Joseph Cannataci und die UN-Sonderberichterstatterin für den Schutz von Menschenrechten bei Anti-Terror-Maßnahmen, Fionnuala Ní Aoláin, in einem gemeinsamen Bericht harsche Kritik geübt und die europäischen Institutionen daran erinnert, dass auch Inhalte, die den Staat schockieren, angreifen und stören, von der Meinungs- und Informationsfreiheit gedeckt sind und zum demokratischen Diskurs gehören.

Sorgfaltspflichten und AGB-Verpflichtungen

Gemäß Artikel 3 des Entwurfs sollen Plattformen sehr unbestimmte Sorgfaltspflichten auferlegt werden. Konkret ist von „geeignete[n], angemessene[n] und verhältnismäßige[n] Maßnahmen […], um die Verbreitung terroristischer Inhalte zu verhindern […]“ die Rede. Darüber hinaus fordert Artikel 3 Absatz 2, dass die Dienste in ihren Nutzungsbedingungen Bestimmungen zur Verhinderung der Verbreitung terroristischer Inhalte aufnehmen. Ausgehend davon, dass die Definition terroristischer Inhalte vage ist und legale Inhalte erfasst, führt das zu der erstaunlichen Verpflichtung der Hostingdiensteanbieter, Inhalte vertraglich zu verbieten, die derzeit legal sind, wie Joan Barata vom Center for Internet and Society an der Stanford Law School herausstellt.

Die Änderungsvorschläge des Ausschusses für Bürgerliche Freiheiten

Im Ausschuss der Parlaments für bürgerliche Freiheiten wurden deutliche Entschärfungen des Textes vorgeschlagen. Er enthält aber immer noch Elemente, die die freie Meinungsäußerung bedrohen.

Insbesondere bleiben die wettbewerbspolitischen Bedenken im vollen Umfang bestehen, da die einstündige Löschfrist nicht angerührt wurde. Dass nunmehr 12 Stunden vor der ersten Entfernungsanordnung, die eine Plattform von der anordnenden Behörde erhält, gemäß Artikel 4 Absatz 1b eine Unterrichtung des Hostingdienstes über die Verfahrensweise stattfinden muss, nützt wenig, da diese Regelung eben nur für das erste Mal gilt. Von diesem Zeitpunkt an müssen die Dienste damit rechnen, zu jeder Zeit eine Anordnung zu erhalten, die binnen einer Stunde befolgt werden muss.

Ausnahmeregelungen

Nach Artikel 1 soll die Verordnung nicht auf Inhalte Anwendung finden, die journalistischen Zwecken, Bildungszwecken oder der Sensibilisierung für terroristische Aktivitäten dienen. Von letzterem Kriterium werden Uploads von Organisationen wie etwa The Syrian Archive oder Witness umfasst sein, die terroristische Taten dokumentieren. Diese Ausnahmen sind im Prinzip zu begrüßen, es stellt sich aber die Frage, ob sich – gerade auf Plattformen mit benutzergenerierten Inhalten – unter Zeitdruck rasch aus dem Kontext erschließen lässt, ob ein Beitrag etwa journalistische Zwecke verfolgt.

Anwendungsbereich

Der Anwendungsbereich wurde eingegrenzt auf Hostingdienste, die Inhalte der Öffentlichkeit zugänglich machen, Artikel 2 Absatz 1. Das ist zu befürworten, weil zuvor eine Reihe von Diensten miterfasst war, für die die Verordnung gänzlich ungeeignet wäre, etwa interne Unternehmensclouds. Nicht in jedem Fall ist aber klar, ob ein Dienst unter diese Definition fällt oder nicht: Ist etwa eine geschlossene Facebook-Gruppe mit 1000 Mitgliedern öffentlich?

Definition terroristischer Inhalte

In den Bestimmungen nach Artikel 2 Absatz 5 (a) bis (c) darüber, was als terroristischer Inhalt einzuordnen ist, ist nun das Erfordernis enthalten, dass der Inhalt die Gefahr der Begehung einer terroristischen Tat verursacht. Was eine terroristische Tat ist, wird nach wie vor durch Rückgriff auf die Richtlinie 2017/541 festgelegt. Damit bleiben Aufrufe zu Aktionen zivilen Ungehorsams umfasst. Besonders bedenklich sind hingegen die Bestimmungen (d) und (e). Dabei werden einerseits Anleitungen zur Herstellung von explosiven Waffen, schädlichen Substanzen und Ähnlichem umfasst, worunter sich eine Vielzahl wissenschaftlicher Veröffentlichungen aus dem Bereich der Chemie subsumieren lässt. Anderseits sollen Darstellung terroristischer Taten ebenfalls als terroristische Inhalte gelten. Solche Darstellungen können aber dokumentarisch sinnvolle Zwecke verfolgen. Wenn sie unter eine der Ausnahmen aus Artikel 1 fallen, sind sie zwar geschützt. Es wird aber im Einzelfall – gerade bei Uploads von Privatpersonen – oftmals schwerlich anhand des Inhalts zu erkennen sein, ob ein Beitrag hochgeladen wurde, um die Öffentlichkeit für terroristische Taten zu sensibilisieren oder um zu weiteren Taten aufzurufen.

Die zuständige Behörde

Während nach den Vorstellungen der Kommission die Mitgliedstaaten nach Gutdünken entscheiden können sollen, welche Behörde oder Behörden für die Ausführung der Verordnung zuständig sind (Artikel 17 Kommissionsentwurf), legt der LIBE-Entwurf in Artikel 2 Absatz 9a fest, dass pro Mitgliedstaat entweder eine einzelne Justizbehörde oder eine einzelne funktionell unabhängige Verwaltungsbehörde für die Ausführung der Verordnung zuständig sein soll. Das ist ebenfalls als Fortschritt zu werten, weil die Dienste nicht damit konfrontiert sind, Anordnungen von einer Vielzahl von Behörden pro Mitgliedstaat zu empfangen und deren Authentizität überprüfen zu müssen. Wünschenswert wäre allerdings die Verpflichtung, eine unabhängige Behörde mit dieser Aufgabe zu betrauen, um sicherzustellen, dass Regierungen keinen unmittelbaren Einfluss auf ihre Entscheidungen nehmen können.

Verminderung der transnationalen Reichweite

Während der Kommissionsentwurf vorsah, dass Behörden eines jeden Staates Beiträge europaweit mittels einer Entfernungsanordnung blockieren lassen können, wurde diese Möglichkeit erheblich begrenzt: Nunmehr soll ausschließlich die Behörde jenes Staates, in dem die Plattform ihren Hauptsitz hat, zu einer europaweiten Sperrung befugt sein.

Die Behörde eines anderen Staates kann anordnen, dass ein Beitrag auf ihrem Landesgebiet nicht mehr sichtbar sein soll. Damit könnten ungarische Behörden einen Beitrag, der auf einer ausländischen Plattform gespeichert ist, nicht mehr für die gesamte EU, sondern nur noch für Ungarn sperren. Umgesetzt werden könnte das zum Beispiel durch Geoblocking.

Die transnationale Dimension des ursprünglichen Entwurfs wurde damit entschärft. Dennoch können gerade ausländische Plattformen für Oppositionelle in Ländern, in denen die Meinungsfreiheit eingeschränkt ist, wichtige Austauschforen sein, sodass die Kernkritik erhalten bleibt: Es besteht eine erhebliche Gefahr, dass die Entfernungsanordnung verwendet wird, um politisch abweichende Meinungen zu unterdrücken.

Streichung der Meldungen

Für Meldungen zur freiwilligen Löschung enthält der Entwurf nun keine Rechtsgrundlage mehr. Das ist zu begrüßen. Dass solche Meldungen deshalb unterbleiben werden, ist aber nicht gesichert. In Erwägungsgrund 1b des Entwurfes heißt es, illegalen Inhalten müsse mit einer Mischung aus gesetzlichen und freiwilligen Maßnahmen, basierend auf der Zusammenarbeit von Behörden und Providern, begegnet werden. Vor diesem Hintergrund ist nicht unwahrscheinlich, dass Behörden auch ohne Rechtsgrundlage zunächst unverbindliche Meldungen an die Dienste senden und diese – vor dem Hintergrund, nicht von kurzfristigen Entfernungsanordnungen bedroht werden zu wollen – kooperieren. Inhalteanbieterinnen und -anbieter könnten sich dagegen kaum wehren, weil sie wahrscheinlich allenfalls den Hinweis erhalten werden, dass ihr Beitrag aufgrund eines Verstoßes gegen die Nutzungsbedingungen entfernt wird, jedoch keine weiteren Informationen über eine zugrundeliegende behördliche Meldung.

Aus proaktiven Maßnahmen wurden spezifische Maßnahmen

Zunächst besagt Artikel 6, dass Hostingdienste spezifische Maßnahmen ergreifen können, um ihre Dienste vor terroristischen Inhalten zu schützen. Diese Maßnahmen sollen zielgerichtet sein. Bei der Auswahl sollen die Hostingdienste einerseits das bisherige Vorkommen terroristischer Inhalte auf ihrer Plattform und andererseits die Grundrechte der Nutzerinnen und Nutzer berücksichtigen.

Nach Artikel 6 Absatz 4. kann die Behörde eine Aufforderung, spezifische Maßnahmen zu ergreifen, an den Hostingdienst senden. Dabei soll die technische Umsetzbarkeit sowie die Größe und die ökonomischen Ressourcen des Anbieters berücksichtigt werden. Ausdrücklich heißt es, dass die Behörden keine generellen Überwachungspflichten und keine Verwendung automatisierter Mittel anordnen dürfen. Damit können unter den verpflichtenden spezifischen Maßnahmen im Sinne dieses Entwurfs keine Uploadfilter verstanden werden. Laut Erwägungsgrund 16 soll es sich vielmehr um Berichtspflichten gegenüber den Behörden, den Einsatz von mehr Personal und den Austausch bewährter Verfahren handeln.

Fazit

Trotz einiger Verbesserungen im Entwurf des LIBE-Ausschusses bedroht die geplante Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte Meinungs-, Informations- und Pressefreiheit sowie die Vielfalt der medialen Landschaft des Internets. Gerade in Zeiten, in denen explizit demokratiefeindliche Parteien in Parlamenten in Europa sitzen, sollten Befugnisse, mit denen politische Freiheiten beschränkt werden können, nur sehr sparsam eingeräumt werden.

Es bleibt abzuwarten, welche der vom Ausschuss vorgeschlagenen Änderungen das Parlament am Mittwoch annehmen wird. In der folgenden Legislaturperiode werden Parlament, Rat und Kommission in den Trilogverhandlungen einen Kompromiss erzielen müssen – der wahrscheinlich zwischen den beiden hier vorgestellten Entwürfen liegen wird. Es ist also zu befürchten, dass einige der Verbesserungen aus der Ausschussfassung wieder rückgängig gemacht werden.

1 Comment

Newsletter April 2019

Liebe Freunde, liebe Freundinnen der DigiGes,

der März war dominiert von unserem Protest gegen die Urheberrechtsreform, wobei wir uns auf die Kritik an der Einrichtung von Uploadfiltern konzentriert haben. Am 16. April 2019 organisieren wir im Alex Berlin eine Spezial-Ausgabe des Netzpolitischen Abends zur Europawahl mit spannenden Gästen. Es moderiert John Weitzmann.

1. EU-Urheberrechtsreform
2. Digital-o-Mat
3. Netzpolitischer Abend
4. DigiGes in den Medien

1. EU-Urheberrechtsreform

Nach der erfolgreichen Demonstration des Bündnisses „Berlin gegen 13“ am 3. März 2019 haben sich noch einmal am 5. März erstaunlich viele Demonstrierende kurzfristig vor der CDU-Zentrale zusammengefunden. Aus dem EU-Parlament gab es Hinweise darauf, dass die Abstimmung vorgezogen werden solle. Das musste so verstanden werden, als ob die europaweiten Proteste am 23. März umgangen werden sollten. Die Abstimmung wurde dann nicht vorgezogen. Für Samstag, den 23. März, haben wir im Berliner Bündnis zu einer Demonstration gegen die EU-Urheberrechtsreform aufgerufen. Aus den angemeldeten 2.000 wurden mindestens 20.000 Teilnehmer*innen. Die Demonstration war ein eindrückliches Statement gegen diese Reform und insbesondere die Uploadfilter. Viele selbst gemachte Schilder begründeten den Protest. Europaweit waren geschätzt zwischen 170.000 und 200.000 Menschen auf der Straße. Zu einem gemeinsamen Basteln von Schildern hatten wir vorher eingeladen und auf einer vorausgehenden Pressekonferenz unseren Protest noch einmal erläutert.

In einem Blogbeitrag haben wir uns ausführlich mit der Urheberrechtsreform und insbesondere dem Artikel 13, der zu Uploadfiltern führen wird, auseinandergesetzt. In der aktuellen Version des Gesetzestextes ist dies der Artikel 17.

Unter der Kategorie „Mitmachen“ auf unserer Internetseite haben wir dazu aufgerufen, die Abgeordneten anzurufen und die Argumente gegen die Urheberrechtsreform zu erläutern.

Die Hamburg Kreativ Gesellschaft mbH hat am 19.3. in Hamburg eine Podiumsdiskussion zum Thema „EU-Urheberrechtsreform – Schutz oder Zensur“ organisiert, an der Volker Grassmuck für die DigiGes teilgenommen hat.

2. Digital-o-Mat

Gemeinsam mit anderen Organisationen – Digitalcourage, Wau-Holland-Stiftung, Wikimedia Deutschland, Bündnis Freie Bildung, Freifunk, Open Knowledge Foundation Deutschland, Whistleblower-Netzwerk und Chaos Computer Club – haben wir das online-Tool »Digital-o-Mat zur Europawahl 2019« entwickelt. Zur Europawahl 2019 wollen wir sichtbar machen, wo die deutschen Parteien bei Streitthemen der Netzpolitik stehen. Mit dem Digital-o-Maten können sich Wählerinnen und Wähler über die Positionen der deutschen Parteien zu Streitthemen der Netzpolitik informieren.

3. Netzpolitischer Abend

Eine Spezial-Ausgabe des NPA gibt es am 16. April 2019 um 19:00 Uhr im Alex Berlin. Wir laden gemeinsam mit ALEX-Berlin zu einer Podiumsdiskussion mit Vertreterinnen und Vertretern verschiedener Parteien ein.

Die Digitalisierung ist eine der einschneidensten gesellschaftlichen Veränderungen unserer Zeit. Ob Urheberrechtsreform, Datenschutzgrundverordnung oder Vorratsdatenspeicherung – netzpolitische Themen prägen die Politik der EU entscheidend mit und sind oftmals stark umstritten.

Vor diesem Hintergrund sollen anlässlich der Wahl zum Europäischen Parlament die netzpolitischen Agenden von CDU, SPD, Bündnis 90/Die Grünen, FDP, der Linken und der Piratenpartei in einer Podiumsdiskussion mit Parteivertreterinnen und Parteivertretern erörtert werden.

Der NPA im Mai fällt wegen der parallel stattfindenden re:publica aus.

Besuchen kann man uns auf dem Netzfest am 4./5. Mai 2019, auf dem wir einen Stand haben werden. Wir werden uns dort auch mit Vorträgen beteiligen.

Der nächste NPA wird am 4. Juni auf der c-base zum Schwerpunkt „Ein Jahr Erfahrungen mit der Datenschutzgrundverordnung“ stattfinden.

Rückblick

Am 05. März fand unser 80. Netzpolitischer Abend statt. Für diejenigen unter euch, die nicht dabei sein konnten, gibt es die Videos hier zum Nachschauen.

Elisabeth Niekrenz: Die Anti-Terrorpropaganda-Verordnung
Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte will die EU gegen Terrorpropaganda im Netz vorgehen. Eine ausgedehnte Definition terroristischer Inhalte, die auch Blockadeaufrufe umfassen kann, Uploadfilter und die Verpflichtung für Plattformen, Inhalte binnen einer Stunde zu löschen, könnten eine europaweite Infrastruktur zur Kontrolle des Internets schaffen. Elisabeth Niekrenz erklärt den aktuellen Entwurf und berichtet über das Gesetzgebungsverfahren sowie laufende Kampagnen gegen die Verordnung.

Katharina Nocun and Basanta E. P. Thapa: Public Money, Public Code

Die Free Software Foundation Europe (FSFE) spricht sich dafür aus, Freie Lizenzen zum Standard bei Eigenentwicklungen der öffentlichen Hand zu machen. Freie Lizenzen bieten nicht nur Chancen für Kostenersparnis durch Synergieeffekte und mehr Transparenz. Sie sind auch der beste Schutz vor Lock-In-Situationen und Abhängigkeit. Katharina Nocun und Basanta E. P. Thapa stellen die aktuelle Publikation zur Kampagne vor und geben konkrete Hinweise, welche Updates bei Ausschreibungen sinnvoll wären.

Kim Arora: Aadhaar and Privacy in India A quick introduction to India’s national biometric ID project from enrolling over 1.2 billion citizens to being challenged in court over privacy. (Plus, a look at some of the data breaches)
Kim Arora, Journalistin aus Indien und derzeit Gastwissenschaftlerin am WZB, informiert über diese Datenbank.

Die Privacy Week Berlin 2019 wurde vorgestellt.

Der 81. Netzpolitische Abend hat am 2. April stattgefunden. Für diejenigen unter euch, die nicht dabei sein konnten, gibt es – hoffentlich bald – die Videos zum Nachschauen.

Die vorherigen Videos der Netzpolitischen Abende können auf youtube weiterhin angeschaut werden: https://www.youtube.com/user/digitalegesellschaft und von November und Dezember 2018 auf: https://www.youtube.com/channel/UCUlLYrfVGheaTAsEjTHHSYA/videos?view_as=subscriber

4. DigiGes in den Medien

Links zum Protest gegen Uploadfilter am 23.03.2019

https://www.heise.de/newsticker/meldung/Copyright-Reform-Zehntausende-demonstrieren-in-Berlin-gegen-Upload-Filter-4347219.html

https://www.noz.de/deutschland-welt/politik/artikel/1685063/massiver-protest-gegen-neues-urheberrecht-und-artikel-13#gallery&0&0&1685063

https://www.merkur.de/politik/umstrittener-artikel-13-fdp-fordert-merkel-zur-verhinderung-von-uploadfiltern-auf-zr-10555694.html

https://www.sueddeutsche.de/news/politik/demonstrationen—berlin-eu-urheberrechtsreform-tausende-demonstrieren-in-berlin-dpa.urn-newsml-dpa-com-20090101-190322-99-505177

Heute geschlossen: Die Wikipedia demonstriert gegen Uploadfilter

EU-Verordnung zu terroristischen Online-Inhalten

EU-Parlamentsausschuss: Keine Uploadfilter gegen Terror, aber kurze Löschfrist

Digital-O-mat

Europawahl: Digital-O-Mat informiert zu netzpolitischen Streitthemen

Kommentare deaktiviert für Newsletter April 2019

Netzpolitischer Abend Spezial: Digitalpolitik der Europäischen Union

Foto: DAVID ILIFF, Bearbeitung: E. N. Lizenz: CC BY 2.0

Der Digitale Gesellschaft e.V. lädt gemeinsam mit ALEX-Berlin zu einer Podiumsdiskussion mit Vertreterinnen und Vertretern verschiedener Parteien.

Hier geht’s ab 19:00 Uhr zum Livestream auf der Website von ALEX Berlin.

Die Digitalisierung ist eine der einschneidensten gesellschaftlichen Veränderungen unserer Zeit. Ob Urheberrechtsreform, Datenschutzgrundverordnung oder Vorratsdatenspeicherung – netzpolitische Themen prägen die Politik der EU entscheidend mit und sind oftmals stark umstritten.  

Vor diesem Hintergrund sollen anlässlich der Wahl zum Europäischen Parlament die netzpolitischen Agenden von CDU, SPD, Bündnis 90/Die Grünen, FDP, der Linken und der Piratenpartei in einer Podiumsdiskussion mit Parteivertreterinnen und Parteivertretern erörtert werden. 

Im Fokus werden dabei zwei Themengebiete stehen:

1. Wie soll der europäische Datenschutz und die Datenökonomie der Zukunft aussehen? Welche Bilanz können wir nach einem Jahr Datenschutzgrundverordnung ziehen? Welche Ziele können mit der e-Privacy-Verordnung erreicht werden?

2. Sollen Online-Plattformen stärker reguliert werden? Urheberrechtsverletzungen, Hate-Speech, Fake News und Terrorismus werfen die Frage auf, ob Plattformen für hochgeladene Inhalte direkt verantwortlich sein sollen. Sind Uploadfilter der richtige Weg? Welche Folgen haben Regulierungsansätze für politische Grundfreiheiten wie die freie Meinungsäußerung?

Mit: Susanne Zels (CDU), Dr. Laura Sophie Dornheim (Grüne), Matthias Ecke (SPD), Juliane Hüttl (FDP), Konstanze Kriese (Linke) und Dr. Patrick Breyer (Piraten). 
Moderation: John Weitzmann (Digitale Gesellschaft e.V.)

Ort und Zeit

16.04.2019, Beginn: 19 Uhr, Einlass ab 18:30

Achtung! 19 Uhr wird die TV-Übertragung beginnen, daher bitten wir alle Interessierten, etwas eher zu erscheinen.

ALEX-Halle, Rudolfstraße 1-9 (Eingang Ecke Ehrenbergstraße), Berlin (Nähe Oberbaumbrücke).

Hashtag

Der Hashtag für diesen Abend ist #NPA_EU, gebraucht ihn gerne und reichlich, auch für Feedback und Fragen, wenn ihr nicht vor Ort sein könnt.

Hinweis

Die Veranstaltung findet in den Räumen unseres Medienpartners ALEX-Berlin statt und wird im Livestream sowie im Fernsehen live übertragen. Mit Betreten des Studios erklären sich Besucherinnen und Besucher damit einverstanden, gefilmt zu werden. Wer unerkannt bleiben möchte, dem wird empfohlen, in den hinteren Reihen Platz zu nehmen. Wir bitten freundlich um Verständnis.

1 Comment