Die Digitale Gesellschaft e.V. war am 17.06.2020 als Sachverständige bei der Sitzung des Ausschusses für Recht und Verbraucherschutz für den „Entwurf des Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes“ (NetzDG) im Bundestag. In der folgenden Stellungnahme haben wir Kritik an dem Entwurf deutlich gemacht: Probleme für die Meinungsfreiheit bestehen, wenn dazu ermuntert wird, künstliche Intelligenz zur Erkennung und Bewertung von Inhalten einzusetzen und wenn Teile staatlicher Aufgaben privatisiert werden.

 

Deutscher Bundestag
Ausschuss für Recht und Verbraucherschutz

Berlin, den 15.06.2020

Stellungnahme der Digitalen Gesellschaft e.V. zum „Entwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes” (NetzDG)

Das 2017 verabschiedete Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet soziale Netzwerke, innerhalb einer Löschfrist von 24 Stunden nach Eingang der Beschwerde „offensichtlich“ rechtswidrige Inhalte zu löschen (§3 Abs. 2 NetzDG), jeden weiteren rechtswidrigen Inhalt binnen 7 Tagen zu löschen (§3 Abs. 3 NetzDG) sowie halbjährlich über die entsprechende Beschwerde- und Entscheidungspraxis zu berichten (§ 2 NetzDG). Bei Nichteinhaltung der Vorschriften drohen Bußgelder (§ 4 NetzDG). Bereits bei Inkrafttreten des Gesetzes haben wir in einem breiten Bündnis mit der „Deklaration für Meinungsfreiheit“ Kritikpunkte daran deutlich gemacht. Diese sind mit dem Entwurf zur Änderung des Gesetzes nicht ausgeräumt und zum Teil sogar verschärft worden: (1) Da es sich bei einer Vielzahl solcher Inhalte um juristisch komplexe Verfahren handelt zu entscheiden, wann ein Inhalt „offensichtlich“ rechtswidrig ist und wann nicht, besteht die Gefahr, dass sich die Dienste im Zweifel für eine Löschung entscheiden (sogenanntes „Overblocking“). Insbesondere kleineren Diensten fehlen die personellen und finanziellen Ressourcen für ein entsprechendes Löschungs- und Beschwerdemanagement. (2) Mit dem NetzDG werden Teile staatlicher Aufgaben privatisiert. Die Entscheidung, wann ein Inhalt strafbar ist oder nicht, sollte jedoch allein in den Händen der Justiz liegen. Soziale Netzwerke sollten nicht hoheitliche Aufgaben übernehmen. Zudem können durch das Löschen von Posts Solidarisierungseffekte und eine Bestätigung von institutionskritischen Sichtweisen ausgelöst werden.

Der Entwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes will nun an einigen Stellen nachbessern. Er sieht unter anderem ein Gegenvorstellungsverfahren, eine Verbesserung der Transparenz der Meldewege von strafbaren Inhalten sowie eine Erhöhung die Vergleichbarkeit der nach § 2 NetzDG einzureichenden Transparenzberichte vor. Insbesondere das Gegenvorstellungsverfahren ist grundsätzlich positiv zu bewerten, denn es lässt nun ein Vorgehen gegen eine ungerechtfertigte Löschung zu. Umgekehrt können auch beanstandete, jedoch nicht gelöschte Inhalte einer nochmaligen Überprüfung unterzogen werden. Dennoch bleiben die Probleme der Gefahren für die Meinungsfreiheit bestehen. In einem offenen Brief an das Bundesministerium der Justiz und für Verbraucherschutz vom 11.2.20202 hat die Digitale Gesellschaft die Probleme bereits herausgestellt.

Grundsätzlich ist zu konstatieren, dass eine Gesetzesänderung auf Basis einer Evaluierung des zugrunde liegenden NetzDG erfolgen sollte. Diese wurde seit der Verabschiedung des Gesetzes angekündigt und sollte innerhalb von drei Jahren nach Inkrafttreten durchgeführt werden. Zwar findet eine Evaluierung derzeit statt und es sind offenbar auch Erkenntnisse aus dieser Evaluierung eingeflossen. Sie ist jedoch noch nicht abgeschlossen und trägt damit nur unzureichend zum öffentlichen Fachdiskurs und zum hier diskutierten Regierungsentwurf bei.

Der Änderungsvorschlag enthält eine Berichtspflicht zu „Art, Grundzüge[n] der Funktionsweise und Reichweite von gegebenenfalls eingesetzten Verfahren zur automatisierten Erkennung von Inhalten“ (§ 2 Absatz 2, Nummer 2 Regierungsentwurf). Auch wenn klargestellt wird, dass diese neue Informationspflicht nicht zum Einsatz entsprechender Systeme auffordert (S. 45 Regierungsentwurf), besteht dennoch die Gefahr einer weiteren Ermutigung für die sozialen Netzwerke, automatisierte Inhaltserkennungen („Uploadfilter“) einzusetzen. Der Einsatz von Uploadfiltern stellt eine Bedrohung der Freiheitsrechte dar. Automatisierte Inhaltserkennungen sind nicht in der Lage, die sprachlichen Trennlinien zwischen zugespitzter Sprache einerseits und strafbaren Inhalten andererseits erkennen zu können.

Die im ursprünglichen Referentenentwurf festgeschriebene Pflicht sozialer Netzwerke, über Gruppen von Angreifenden und Betroffenen zu berichten, wurde im Regierungsentwurf entschärft. Dies ist grundsätzlich zu begrüßen. Die Berichtspflicht besteht jetzt nur noch darin, „Angaben darüber, ob und inwieweit Kreisen der Wissenschaft und Forschung im Berichtszeitraum Zugang zu Informationen des Anbieters gewährt wurde, um ihnen eine anonymisierte Auswertung zu ermöglichen, inwieweit […] b) die Verbreitung von rechtswidrigen Inhalten zu spezifischer Betroffenheit bestimmter Nutzerkreise führt“ (§ 2 Absatz 2 Nummer 12 Regierungsentwurf). Mit dieser Entschärfung wird auch die Problematik möglicher Stigmatisierungen abgeschwächt. Bildungen von standardisierten Untersuchungsgruppen sollten nach wissenschaftlichen Standards erfolgen und damit in den Händen wissenschaftlicher – und nicht fachfremder – Organisationen liegen. Der Absatz ist jedoch noch unkonkret formuliert. Es muss klar sein, dass keinerlei „Vorklassifizierung“ durch die sozialen Netzwerke stattfinden darf. Privatunternehmen dürfen nicht dazu verpflichtet werden, (neben staatlichen) auch wissenschaftliche Aufgaben zu übernehmen. Untersuchungen zu spezifischen Personengruppen und ihr Verhalten sind essenziell, sollten jedoch grundsätzlich von der Wissenschaft initiiert werden und ausschließlich in ihren Kompetenzbereich fallen. Zudem ist hier nochmals generell zu kritisieren, dass entsprechende Evaluationen zu Art und Ausmaß einer möglichen Verbreitung rechtswidriger Inhalte auch nach spezifischen Personengruppen der Einführung entsprechender Gesetze zeitlich vorgelagert sein sollten, um die in dem Gesetzesentwurf konstatierte „Verrohung der Debattenkultur in sozialen Netzwerken“ (S. 19) empirisch Rechnung tragen zu können. Auf einer solchen empirischen Basis wäre es überhaupt erst sinnvoll möglich, ein effizientes, zielgerichtetes Gesetz zu schaffen.

Artikel 2 (Änderung des Telemediengesetz) im NetzDG soll dahingehend geändert werden, dass der Auskunftsanspruch von Betroffenen, Auskunft über Bestandsdaten der Angreifenden zu erhalten, für die sozialen Netzwerke verpflichtend wird. Die Zulässigkeit muss vorher durch ein Gericht geprüft werden. Eine Vereinfachung der Auskunftsansprüche zugunsten der Betroffenen ist grundsätzlich zu begrüßen. Gleichzeitig mahnen wir eine sorgsame Abwägung zwischen den beiden Polen Freiheit und Sicherheit im Netz an. So ist zu klären, welche personenbezogenen Daten herausgegeben dürfen. Sollte es sich dabei auch um die Herausgabe von Informationen handeln, wie in dem „Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität“ vorgesehen, ist ein solches Vorgehen im Hinblick auf den Datenschutz im hohen Maße bedenklich. Zudem ist bei einer solchen Vereinfachung der Auskunftsansprüche auch auf den Schutz der Betroffenen zu achten. Sie darf keinesfalls dazu führen, dass Angreifende auf diesem Wege ebenfalls personenbezogene Daten der Angegriffenen erhalten können.

In diesem Zusammenhang erscheint die Trennung zwischen dem Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität und dem hier betrachteten Entwurf undurchsichtig. Gibt es Abhängigkeiten und Bezüge zwischen beiden Entwürfen, so müssen diese klar herausgestellt sein. Auch sind Trennlinien bei den Neuerungen im Bereich Videosharing-Plattformen im NetzDG und im Telemediengesetz zum Teil nicht trennscharf. Dies birgt die Gefahr der Rechtsunsicherheit.

Zusammengefasst sehen wir eine Gefahr für die Meinungsfreiheit, wenn dazu ermuntert wird, künstliche Intelligenz zur Erkennung und Bewertung von Inhalten einzusetzen und wenn gesetzliche Vorgänge in private Hände gegeben werden. Auch wenn etwa die geplante Stärkung der Nutzenden durch die Einführung des Widerspruchsrechts zu begrüßen ist, bleiben diese Probleme bestehen und werden, da nicht grundsätzlich in Frage gestellt, durch die aufgezählten vermeintlichen positiven Aspekte eher noch zementiert. Folgende Punkte machen unseres Erachtens eine sehr viel weitreichendere Überarbeitung des NetzDG erforderlich:

  1. Keine Anreize zur automatisierten Inhaltserkennung,
  2. kein Outsourcing von staatlichen Aufgaben an private Unternehmen,
  3. erforderliche Evaluation des Gegenstandsbereichs,
  4. kein Outsourcing von wissenschaftlichen Aufgaben an private Unternehmen sowie
  5. Klärung der Auskunftsansprüche im Sinne des Datenschutzes und im Hinblick auf den Schutz der Betroffenen.

Stattdessen fordern wir:

  1. Eine entsprechende Förderung empirischer Studien über die konstatierte Verrohung der Kommunikation in sozialen Medien,
  2. eine verstärkte personelle und sachliche und digitalisierte Ausstattung von Polizei und Justiz sowie Fortbildungen und Schulungen in Internetkompetenz und Digitalisierung – so dass der Staat besser in die Lage versetzt werden kann, selbst effektiv gegen Internetkriminalität vorzugehen,
  3. eine verstärkte Schaffung von auf Hatespeech und Internetkriminalität spezialisierte Schwerpunktstaatsanwaltschaften und Kammern an den ordentlichen Gerichten,
  4. eine stärkere finanzielle Unterstützung des Engagements gegen Antisemitismus und gruppenbezogene Menschenfeindlichkeit sowie
  5. einen konkreteren Schutz von Betroffenen von Bedrohungen durch mehr und bessere Betreuungs- und Anlaufstellen.

Selbstverständlich müssen Straftatbestände, die im Internet stattfinden, verfolgt und sanktioniert werden und der Staat hat die Pflicht, Betroffene zu schützen. Dabei dürfen jedoch bestehende Bürgerrechte nicht mit Mitteln beschnitten werden, die einer Internetzensur und Überwachung Vorschub leisten. In der Studie “The Digital Berlin Wall: How Germany (Accidentally) Created a Prototype for Global Online Censorship” aus dem Jahr 2019 hat die dänische Organisation Justitia herausgestellt, dass autoritär regierte Länder das deutsche NetzDG als Vorbild für ähnliche Internetregulierungen genommen haben und sich explizit auf das Vorbild Deutschlands berufen. Die Autorinnen und Autoren der Studie schlussfolgern: „In a world where both online and offline speech is under systematic global attack, democracies have a special obligation to err on the side of free speech, rather than succumbing to the ever-present temptation of fighting illiberal ideas with illiberal laws“ (Mchangama/Fiss 2019: 17).