Einführung

Im Dezember 2020 hat die Europäische Kommission einen Entwurf für den Digital Services Act (DSA-E) vorgelegt, dessen Kern eine umfassende Plattformregulierung darstellt. Derzeit wird der Entwurf in verschiedenen Ausschüssen des Europäischen Parlaments diskutiert und Änderungsvorschläge erarbeitet. Gemeinsam mit dem Digital Markets Act (DMA) stellt er ein Kernprojekt der gegenwärtigen Kommission dar und soll – durchaus mit globaler Strahlkraft – die Zukunft von Plattformen und damit großer Bereiche des Internets nachhaltig prägen.

Der Entwurf der Kommission greift viele Probleme, die sich aus den Geschäftsmodellen von Plattformen ergeben, auf und versucht sie durch gezielte regulatorische Eingriffe anzugehen. Nach Auffassung der Digitalen Gesellschaft wird jedoch insgesamt die Chance einer umfassenden Reform vertan, die ein offenes und von den Nutzerinnen und Nutzern selbst bestimmtes Internet prägen könnte. Durch zahlreiche Ausnahmen – etwa für die Regeln der Urheberrechtsrichtlinie (DSM-RL) und die Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte (TERREG) – ist er eher als ein weiterer, wenn auch wesentlicher Baustein einer vielschichtigen europäischen Regulierung statt ein umfassendes „Plattform-Grundgesetz“, das einen breiteren kohärenten Rahmen hätte liefern und einige Fehler der Vergangenheit korrigieren können.

Plattformen stellen heute Leistungen zur Verfügung, die aus dem Alltagsleben der Menschen nicht mehr wegzudenken sind und auf die sie teilweise ebenso angewiesen sind wie auf klassische Leistungen der öffentlichen Daseinsvorsorge. Statt den Fokus auf die bloße Korrektur von Auswüchsen der Geschäftsmodelle einzelner Techkonzerne zu legen, sollten Rolle und gesellschaftlicher Stellenwert von Plattformen grundlegend gedacht und zukunftsweisende Konzepte implementiert werden. Ziel sollte der allgemeine, die Interessen und Grundrechte der Nutzerinnen und Nutzer wahrende Zugang zu derartigen Leistungen und mittelfristig der Aufbau öffentlicher oder communitybasierter Alternativen zu den derzeitigen Marktführern sein. Davon sind im Entwurf der Kommission bislang allenfalls Ansätze erkennbar.

Die öffentliche Diskussion um Plattformregulierung dreht sich mittlerweile in weiten Teilen um gezielte Desinformation und die Verbreitung von Verschwörungserzählungen. Der sicherste Schutz vor Desinformationkampagnen aber ist eine breite, offene Debatte, die die gesellschaftliche Kenntnis und die öffentliche Diskussion um die Funktionsweise der Plattformen voraussetzt. Die Regulierung der Plattformen und ihrer Geschäftsmodelle sollte dazu beitragen, dass die Grundlagen für breite öffentliche Diskussionen gelegt werden und nicht diese Diskussionen selbst regulieren. Sie muss die Plattformen in den Blick nehmen und nicht die Nutzerinnen und Nutzer. Und sie darf den autoritären Ungeist nicht mit autoritären Maßnahmen bekämpfen, die die Grundlage eines freien und offenen Austauschs im Netz untergraben.

Die Digitale Gesellschaft wird den weiteren Gesetzgebungsprozess kritisch begleiten. In den Aushandlungsprozessen in Brüssel, in denen die Europäischen Institutionen und die großen Plattformen mit enormer Lobbymacht die Plattformregulierung nun gestalten, drohen die Interessen der Nutzerinnen und Nutzer aus dem Blick zu geraten. Denn während die Plattformen selbst die Grundlagen ihrer problematischen Geschäftsmodelle wahren wollen, gibt es laute Stimmen, die einer stärkeren staatlichen Kontrolle des Netzes das Wort reden und die Grundlagen eines offenen und freien Internets infrage stellen.

Bislang ist der DSA in Deutschland – trotz immer neuen Skandalen rund um Facebook & Co – nur Thema von wenigen Fachleuten. Ein so komplexes Regelwerk wie die europäische Plattformregulierung aber muss kritisch von einer breiten Öffentlichkeit begleitet werden, solange die Aushandlungsprozesse laufen. Wenn die finalen Abstimmungen in Parlament und Rat anstehen wird es zu spät sein, noch Einfluss auf die Verordnung zu nehmen.

Wir haben daher einige wichtige Punkte aus dem DSA-E aufgegriffen und konkrete Forderungen formuliert um dazu beizutragen, eine den Grundrechten verpflichtete Plattformregulierung durchzusetzen.

 

1. Öffentliche Regeln für die Meinungsbildung

Insbesondere im Bereich der öffentlichen Meinungs- und Willensbildung sind die großen Online-Plattformen von enormer Bedeutung. Zwar geben sich die Plattformen unpolitisch bzw. gesellschafts- und parteipolitisch neutral. Allein die Art, wie auf ihnen kommuniziert wird, prägt jedoch gesellschaftliche Debatten. Nicht zuletzt die Diskussionen um das NetzDG und dessen Durchsetzung haben gezeigt, dass AGBs und Community-Richtlinien längst zu Regelwerken für diese Debatten geworden sind. Dass sie mit der Durchsetzung dieser Regeln ihrer vielbeschworenen „gesellschaftlichen Verantwortung“ gerecht zu werden versuchen, ändert nichts an der Tatsache, dass dadurch maßgebliche Regeln gesellschaftlicher Diskussion von privaten Firmen diktiert werden.

Die Kommission will durch Art. 12 Abs. 2 DSA-E Anbieter von Vermittlungsdiensten auf die Berücksichtigung der Rechte und berechtigten Interessen aller Beteiligter und der Grundrechte von Nutzerinnen und Nutzern verpflichten. Für sehr große Online-Plattformen, die für allgemeine gesellschaftliche Diskussionen offenstehen, geht dies jedoch längst nicht weit genug. Die Regeln für diese zentralen Kommunikationsorte sollten nicht lediglich die Grundrechte der Nutzerinnen und Nutzer berücksichtigen, sondern von der Gesellschaft in demokratischen Prozessen selbst bestimmt werden. Die Grenzen der Meinungsfreiheit dürfen nicht von den Plattformen selbst gezogen werden, sondern sind durch die allgemeinen Gesetze bestimmt.

Sehr große Online-Plattformen, die für die allgemeine Diskussion offenstehen, müssen daher verpflichtet werden, die Grundrechte ihrer Nutzerinnen und Nutzer umfassend zu gewährleisten. Blockierungen dürfen nur bei rechtswidrigen Inhalten erfolgen.

 

2. Keine Privatisierung der Rechtsdurchsetzung

Im Bereich der Plattformregulierung wird seit Jahren die Privatisierung der Rechtsdurchsetzung angemahnt. Diese ergibt sich aus der besonderen Stellung, die Plattformen einnehmen. Der DSA-E versucht durch ein Beschwerdemanagementsystem und formale Anforderungen an die Maßnahmen der Plattformen Nutzerinnen und Nutzer vor willkürlichen und falschen Entscheidungen zu schützen. Problematisch ist hierbei insbesondere, dass der Entwurf die automatisierte Blockierung von Inhalten nicht ausschließt, sondern deren Möglichkeit voraussetzt und dass trotz Beschwerdemöglichkeiten kein eigenständiges subjektives Recht auf den Verbleib legaler Inhalte geschaffen wird.

Das Beschwerdesystem, das die Kommission in den Artt. 16ff DSA-E vorschlägt, mag geeignet sein, den bisherigen status quo zu verbessern, in dem die Plattformen selbst mehr oder weniger angemessen oder willkürlich auf Löschungsbegehren und Beschwerden reagieren. Den Kern des Problems trifft dies jedoch nicht. Ein Löschungs- bzw. Blockierungsbegehren richtet sich weiterhin zunächst primär privatrechtlich gegen die Plattform, die dann entscheiden muss, ob sie ihm stattgibt oder nicht. Anders als klassische Medien oder redaktionell betreute Seiten etc. haben Plattformen jedoch in der Regel kein eigenständiges Interesse an den einzelnen veröffentlichten Inhalten. Obwohl sie eigentlich Partei sind, werden sie faktisch zu Richtern über Blockierung oder Verbleib von Inhalten. Firmeninterne Richtlinien werden so de facto zu Normen, die sensible rechtliche Fragen regeln. Verkompliziert wird dies durch das Vorgehen nach eigenen Nutzungsbedingungen (s.o.) und durch eigenständige Regeln für behördliche Löschanordnungen (Artt. 8f DSA-E) sowie für strafrechtliche Ermittlungen, bei denen die Plattformen nach Vorstellung der Kommission selbst aktiv werden sollen (Art. 21 DSA-E).

Die europäische Plattformregulierung sollte dazu genutzt werden, ein einheitliches System zu schaffen, in dem nicht primär die Plattformen selbst über die Zulässigkeit von Inhalten entscheiden, sondern unabhängige Stellen streitige Fragen klären und über die Blockierung von Inhalten oder Accounts, ggf. auch über die Meldung an Strafverfolgungsbehörden entscheiden. Die Staatsferne und Unabhängigkeit derartiger Stellen müsste zur Wahrung der Meinungsfreiheit gewährleistet sein.

Entscheidungen über Blockierung oder Verbleib von Inhalten oder Accounts auf sehr großen Online-Plattformen sollten grundsätzlich nicht von diesen selbst, sondern durch eine unabhängige staatsferne Institution erfolgen und einer umfassenden gerichtlichen Kontrolle unterliegen. Zumindest muss klargestellt werden, dass eine solche Entscheidung von sachkundigen natürlichen Person getroffen werden muss.

 

3. Meinungsfreiheit wahren – Notice and Action stärken

Die grundlegende Offenheit des Internets wird durch regulatorische Eingriffe und den Kampf gegen rechtswidrige Inhalte zunehmend ausgehöhlt. Bislang werden durch die E-Commerce-Richtlinie Anbieter weitgehend von der Haftung für Inhalte freigestellt, solange sie keine tatsächliche Kenntnis von rechtswidrigen Inhalten haben bzw. bei Kenntnisnahme nicht angemessen reagieren. Dieser Grundsatz steht zunehmend unter Druck, da die Anbieter, insbesondere die großen Plattformen, in die Verantwortung für die auf ihnen verbreiteten Inhalte genommen werden sollen. Jedoch stellt die Haftungsbefreiung die Grundlage für einen freien und offenen Austausch im Netz dar, in dem Menschen ihre Inhalte ohne Vorprüfung durch die Anbieter veröffentlichen und teilen können. An dieser Grundlage zu rütteln bedeutet, die Freiheit des Internets infrage zu stellen und Nutzerinnen und Nutzer einer umfassenden Überwachung und Kontrolle durch die Anbieter unterwerfen zu wollen.

Es ist daher grundsätzlich zu begrüßen, dass der Kommissionsentwurf in Art. 5 DSA-E die Übernahme der weitgehenden Haftungsbefreiung aus der E-Commerce-Richtlinie für Hosting-Provider vorsieht. Doch schon der Kommissionsentwurf schränkt das Prinzip ein, indem etwa durch Art. 14 Abs. 3 DSA-E jede formal korrekte Meldung unmittelbar zur rechtlichen Fiktion tatsächlicher Kenntnisnahme führt. Dadurch wird der Tatbestand der „tatsächlichen Kenntnis“ ausgehöhlt und ein massiver Anreiz zu exzessivem Löschen gesetzt. Denn angesichts strenger Haftungsregeln werden Anbieter im Zweifel erst einmal blockieren, sobald eine Meldung eingeht – ob inhaltlich berechtigt oder nicht.

Der Entwurf der Kommission geht sogar so weit, dass nicht einmal die automatisierte Blockierung von Inhalten ausgeschlossen wird. Ohne ansatzweise angemessene Überprüfung aber droht Missbrauch und massives Overblocking. Entscheidungen die der Komplexität von Sachverhalten Rechnung tragen und Gefahrenabwehr und Meinungsfreiheit angemessen abwägen sind weder automatisiert noch unter Zeitdruck zu gewährleisten.

Daher sind auch feste Fristen, wie sie bereits das deutsche NetzDG vorschreibt und nun teilweise gefordert werden, abzulehnen. Die Angemessenheit einer Reaktion auf eine Meldung kann sich nur aus dem Sachverhalt selbst ergeben und bedarf im Zweifel einer sorgfältigen Prüfung. Insofern ist auch eine unterschiedliche rechtliche Behandlung rechtswidriger Inhalte aufgrund eines Kriteriums wie der „Offensichtlichkeit“ oder der „ernsthaften Gefährdung“ abzulehnen. Denn es würde einer verkürzten Prüfung Tür und Tor öffnen, wenn etwa unterstellt würde, dass bei bestimmten Inhalten die Rechtswidrigeit auf der Hand liegt.

Art. 14 Abs. 3 DSA-E ist als Anreiz zu Missbrauch und Overblocking zu streichen. Automatisiertes Blockieren muss ausgeschlossen werden. Feste Löschfristen sind abzulehnen.

 

4. Allgemeine Überwachung verbieten

Eine allgemeine Verpflichtung zur Überwachung von Inhalten sieht der Kommissionsentwurf nicht vor. Art. 7 DSA-E stellt dies ausdrücklich klar. Eine solche allgemeine Überwachung darf jedoch auch nicht durch die Hintertür eingeführt werden. In den Ausschüssen des Europaparlaments werden bereits eine Staydown-Verpflichtung für bereits gelöschte Inhalte diskutiert. Eine solche Verpflichtung ist aber nur umzusetzen, wenn der gesamte Upload automatisiert auf derartige Inhalte überprüft, also vollständig überwacht wird.

Auch der Art. 6 DSA-E („Good-Samaritan-Klausel“) setzt insofern falsche Anreize. Er soll gewährleisten, dass freiwillige Maßnahmen gegen rechtswidrige Inhalte nicht zum Verlust der Haftungsfreiheit des Art. 5 DSA-E führen. Dies zielt offensichtlich darauf ab, Anbieter dazu zu bringen, auch über das im DSA geregelte Maß hinausgehende Vorkehrungen zu treffen. Derartige Maßnahmen können auch eine allgemeine Überwachung der Inhalte umfassen. Es ist wenig gewonnen, wenn der DSA selbst keine allgemeine Überwachung vorschreibt, diese aber von den großen Plattformen „freiwillig“ durchgeführt wird und dies für sie den einfachsten Weg darstellt, ihren rechtlichen Verpflichtungen nachzukommen.

Der DSA sollte vielmehr einen Rahmen schaffen, in dem nicht nur die Rechtssicherheit der Anbieter gewährleistet wird, sondern diese in ein ausgewogenes Verhältnis zu den Grundrechten der Nutzerinnen und Nutzer gesetzt wird – gerade angesichts der Bedeutung sehr großer Online-Plattformen für die öffentliche Meinungsbildung.

Alle Anreize für den vermeintlich „freiwilligen“ Einsatz automatisierter Überwachungsverfahren sind zu streichen. Art. 7 sollte nicht nur klarstellen, dass den Anbietern keine allgemeinen Überwachungspflichten auferlegt werden, sondern eine allgemeine Überwachung ausdrücklich verbieten.

 

5. Verhaltensbasierte Werbung verbieten

Im Ökosystem Internet ist verhaltensbasierte Werbung der fossile Energieträger, der auf Kosten Aller riskante und nicht nachhaltige Geschäftsmodelle am Laufen hält. Es werden gigantische Mengen von Nutzerinnen- und Nutzerdaten gesammelt und persönliche Profile erstellt und gehandelt um möglichst passgenaue Werbung anzuzeigen. Doch nicht erst der Skandal um Cambridge Analytica hat gezeigt, dass durch das massenhafte Sammeln, Speichern und Kommerzialisieren persönlicher Daten nicht nur die Rechte jedes einzelnen Nutzenden systematisch verletzt werden, sondern die freie öffentliche Diskussion im Netz insgesamt untergraben wird. Zugleich stärkt das Sammeln und Verarbeiten der Daten die Marktmacht einiger weniger Unternehmen in der internetbasierten Werbewirtschaft. Die Datenschutzgrundverordnung (DSGVO), die zumindest Praktiken wie das real-time-bidding eigentlich verbietet, läuft derzeit weitgehend ins Leere. Währenddessen versuchen die Plattformen selbst – etwa Google mit seinem browserbasiertem Federated Learning of Cohorts (FLoC) – ihre überkommenen Geschäftsmodelle durch Ausnutzung ihrer Marktmacht in die Zukunft zu retten. Doch werbebasierte Geschäftsmodelle funktionieren auch auf Grundlage kontextbasierter Anzeigen, wie die Erfahrung gezeigt hat.

Es ist daher zu begrüßen, dass die Kommission auch im DSA-E verhaltensbasierte Werbung als Kern des Geschäftsmodells großer Plattformen in den Blick nimmt und in Art. 24 DSA-E ein wenig mehr Transparenz fordert. Dies greift jedoch viel zu kurz und ist nicht geeignet, die Probleme und Gefahren verhaltensbasierter Werbung auch nur im Ansatz anzugehen. Denn das eigentliche Problem: das Sammeln und Verarbeiten der Daten, wird nicht angegangen.

Verhaltensbasierte Werbung sollte insgesamt verboten werden. Ihr ökonomischer Nutzen für die plattformbasierte Werbewirtschaft steht in keinem Verhältnis zu ihren schwerwiegenden Folgen für individuelle Grundrechte und die Gesellschaft insgesamt.

 

6. Algorithmen transparent machen

Plattformen stellen einen zentralen Ort des öffentlichen Austauschs und der Information dar und sind aus der gesellschaftlichen Meinungsbildung nicht mehr wegzudenken. Zugleich sind zentrale Regeln, nach denen dieser Meinungs- und Informationsaustausch funktioniert, das Geschäftsgeheimnis einiger großer Unternehmen. Unabhängige Forschung wird von den Plattformen aktiv bekämpft, wie zuletzt die Klagedrohung von Facebook gegen die WatchDog-Organisation AlgorithmWatch gezeigt hat. Diese hatte mittels Datenspenden versucht, mehr über die Funktionsweise des Empfehlungssystem des Instagram-Newsfeeds herauszufinden.

Der Kommissionsvorschlag versucht in Artt. 23 und 29 DSA-E durch ein wenig mehr Transparenz und durch ein kompliziertes System der (Selbst-)Kontrolle den Risiken, die durch die Funktionsweisen von Plattformen entstehen, zu begegnen. Eine externe Kontrolle soll auch bei sehr großen Online-Plattformen nur sehr eingeschränkt hinsichtlich der im DSA-E vorgesehenen, unzureichenden Verpflichtungen und unter engen Voraussetzungen erfolgen. Ein externes Auditing für sehr große Plattformen ist zwar vorgesehen, allerdings ist bleibt die Auswahl der Prüfstellen unklar und ihr Auftrag ist stark eingeschränkt.

Eine Kontrolle, die weitgehend durch die Plattformen selbst erfolgt und auf Selbstverpflichtungen beruht, wird der gesellschaftlichen Bedeutung, die die Funktionsweisen großer Plattformen haben, nicht im Ansatz gerecht. Eine unabhängige Kontrolle und Evaluation kann nur durch unabhängige Institutionen in Kenntnis der tatsächlichen Funktionsweisen der Plattformen und insbesondere ihrer Empfehlungsalgorithmen erfolgen. Zugleich müssen Nutzende Kenntnis darüber haben, warum ihnen welcher weitere Inhalt angezeigt wird.

Unabhängige Wissenschaftlerinnen und Wissenschaftler, insbesondere auch Medienschaffende und zivilgesellschaftliche Organisationen müssen vollen Zugang zu den Entscheidungsalgorithmen haben. Gegenüber den Nutzenden sind nicht lediglich die wichtigsten, sondern alle Kriterien offenzulegen, auf deren Grundlage Empfehlungen angezeigt werden. Dies darf nicht nur rein abstrakt in den Geschäftsbedingungen erfolgen, sondern muss für jeden einzelnen Inhalt nachvollziehbar sein.

 

7. Ein effektives und unabhängiges Durchsetzungsregime schaffen

Für die Plattformregulierung hat die Kommission – wohl angesichts der Vollzugsdefizite der DSGVO – auf ein rein nationales Durchsetzungsregime verzichtet und sieht ein komplexes System von (zunächst zuständigen) nationalen Behörden, nationalen „Koordinatoren für digitale Dienste“ (Artt. 38ff DSA-E), einem beratenden Europäischen Gremium (Artt. 47ff DSA-E) und der Möglichkeit des Eingreifens der Kommission bei Untätigkeit bezüglich sehr großer Plattformen (Artt. 50ff DSA-E) vor. Dass die Fehler der DSGVO nicht wiederholt und zumindest sehr großen Plattformen die Möglichkeit verwehrt werden soll durch die Wahl ihres Sitzes die effektive Aufsicht auszuhebeln, ist grundsätzlich zu begrüßen.

Bedenken bestehen allerdings bezüglich der Ausgestaltung der europäischen Aufsicht. Das Europäische Gremium hat zwar die Möglichkeit ggf. Druck zu machen und Hilfestellungen für überforderte und/oder unwillige nationale Behörden zu geben. An der Effektivität eines solchen, unter dem Vorsitz der Kommission tagenden Gremiums bestehen jedoch Zweifel. Vor allem aber ist die zentrale Aufsichtsrolle der Kommission kritisch zu hinterfragen. Die Europäische Kommission ist ein politisches Gremium und es hat sich immer wieder gezeigt, dass sie ihr Eingreifen in nationale Zuständigkeiten allzu oft nicht ausschließlich von rechtlichen Erwägungen abhängig macht.

Statt eines komplizierten Systems verschiedener Gremien könnte eine mit entsprechenden Mitteln, Kompetenzen und Sachkenntnis ausgestattete unabhängige Europäische Aufsichtsstelle für sehr große Plattformen eine effektive und politisch unabhängige Rechtsdurchsetzung gewährleisten.

 

8. Keine Privilegierung „Vertrauenswürdiger Hinweisgeber“ (Art. 19 DSA-E)

Der Entwurf sieht vor, dass Meldungen über rechtswidrige Inhalte durch sogenannte vertrauenswürdige Hinweisgeber bevorzugt behandelt werden sollen. Zur Diskussion steht sogar, dass die derart gemeldeten Inhalte umgehend zu entfernen sind. Positiv an dieser Regelung ist, dass bestimmte Stellen, die im Rahmen ihrer professionellen Tätigkeit mutmaßlich illegale Inhalte an die Anbieter melden, einer besonderen Kontrolle unterliegen (Art. 20 DSA-E). Jedoch ist grundsätzlich infrage zu stellen, warum bestimmte Stellen überhaupt einen privilegierten Zugang zu dem Meldemechanismus genießen sollten. Melde- und Beschwerdeverfahren sind so auszugestalten, dass jede Meldung transparent, zügig und anhand nachvollziehbarer Kriterien nach den gesetzlichen Vorgaben durchgeführt wird. Ein Raum für privilegierte Meldungen ist insofern nicht eröffnet. Vielmehr birgt die Kennzeichnung bestimmter Stellen als besonders vertrauenswürdig die Gefahr, dass die Prüfung ihrer Meldungen nicht mit der nötigen Unvoreingenommenheit und Objektivität erfolgt.

Eine ernsthafte Gefahr für rechtsstaatliche Prinzipien stellt es dar, wenn auch öffentliche Stellen, etwa die Polizei, über eine Meldung die Löschung von Inhalten veranlassen, insbesondere, wenn diese als vertrauenswürdige Stellen erachtet werden. Behörden und andere öffentliche Stellen haben grundsätzlich auf der Grundlage der für sie einschlägigen öffentlich-rechtlichen Rechtsgrundlagen zu handeln. Sofern sie rechtswidrige Inhalte feststellen, insbesondere wenn deren Verbleib im Internet eine fortwährende Gefahr für die öffentliche Sicherheit darstellen würde, können sie im Rahmen ihrer Befugnisse entsprechende hoheitliche Maßnahmen dagegen ergreifen und etwa Löschungs- und/oder Auskunftsanordnungen (Artt. 8, 9 DSA-E) erlassen, ggf. auch strafrechtliche Ermittlungen aufnehmen. Für ein Agieren außerhalb dieses Rechtsrahmens bleibt insbesondere in einem grundrechtlich derart sensiblen Bereich wie dem Einwirken auf das Veröffentlichen von Inhalten nach rechtsstaatlichen Maßstäben kein Raum.

Art. 19 ist daher zu streichen und durch ein System der Kontrolle solcher Hinweisgeber zu ersetzen, die durch Monitoring von Inhalten und entsprechendes Melden an die Plattformen systematisch Einfluss auf den Verbleib von Inhalten auf diesen Plattformen nehmen. Zudem ist klarzustellen, dass zur Veranlassungen von Löschungen öffentliche Stellen ausschließlich im Rahmen ihrer hoheitlichen Befugnisse handeln und das Meldeverfahren der Artt. 14ff DSA-E ihnen als Institutionen nicht zur Verfügung steht.

 

9. Interoperabilität und Sicherheit gewährleisten

Gerade aus dem zivilgesellschaftlichen Umfeld war die Hoffnung groß, dass umfassende Interoperabilitätsverpflichtungen in der Plattformregulierung eine Möglichkeit darstellen könnten, die bestehende Macht der großen Unternehmen einschränken und zu einem offeneren Internet beitragen zu können. So sollte etwa gewährleistet werden, dass Messenger auch untereinander kommunizieren können Die Kommission hat jedoch lediglich eine sehr beschränkte Interoperabilitätsverpflichtung für Marktteilnehmer im DMA-E vorgeschlagen. Das von zivilgesellschaftlichen Akteuren angestrebte Ziel, die Monopolstellung einzelner Plattformen und die daraus resultierenden Probleme anzugehen, kann mit dem Vorschlag der Kommission nicht erreicht werden. Eine echte Interoperabilität sollte auch im DSA geregelt werden und die Kerndienste der Anbieter betreffen.

Allerdings darf eine solche umfassende Interoperabilität nicht dazu beitragen, dass kleine Anbieter benachteiligt werden. Vor allem aber darf sie nicht auf Kosten der Sicherheit der Kommunikation gehen oder dazu führen, dass fragwürdige Dienste wie WhatsApp Zugriff auf weitere Daten erhalten. Es ist zu befürchten, dass die für die Interoperabilität notwendige Entwicklung entsprechender Standards und Protokolle staatliche Akteure auf den Plan rufen, die im Namen der inneren Sicherheit die Sicherheit der Kommunikation untergraben wollen. Es darf also keinen kleinsten gemeinsamen Nenner für sichere Kommunikation geben. Der größtmögliche Schutz aller Nutzenden muss gewährleistet werden.

Der DSA sollte umfassende Interoperabilitätsverpflichtungen für sehr große Online-Plattformen und Messenger begründen, die aber sicherstellen, dass die Sicherheit der Kommunikation gewährleistet bleibt und Verschlüsselung nicht kompromittiert wird.

Veröffentlicht am 30. September 2021

Wir suchen 100 Digital-Lobbyisten

Der Kampf für die Grundrechte im Digitalen ist nicht umsonst!

Um weiterhin bei Themen wie dem DSA/DMA auf dem Laufenden zu bleiben und im Sinne der Nutzerinnen und Nutzer Lobby zu machen gegen die Tech-Giganten sind wir auf Eure Spenden und Fördermitgliedschaften angewiesen. Hier kannst Du die Arbeit der Digitalen Gesellschaft unterstützen!