Digital Services Act

Die Kommission hat angekündigt, bis Ende dieses Jahres einen so genannten „Digital Service Act“ (DSA) vorzulegen. Seit dieser Ankündigung gibt es zahlreiche Gerüchte rund um den Vorschlag. Werden den mächtigen Plattformen wie Facebook und Co. Grenzen gesetzt? Beabsichtigt die Kommission, die großen Plattformen zu zerschlagen?

Ich bin Schattenberichterstatter für meine Fraktion im Verbraucherausschuss -IMCO, der sich mit den ersten und umfangreichsten Berichten beschäftigt. Meine Arbeit im IMCO zum DSA konzentriert sich auf folgende fünf Punkte:

Monopole aufbrechen:

Wir wollen ein Kartellrecht, das bereit ist für das digitale Zeitalter und die dominante Marktstellung der Konzerne beschränkt. Anstatt ausschließlich Strafgelder zu verhängen, müssen Monopole zerschlagen werden, wie es auch in der Realwirtschaft geschieht.

Da die E-Commerce-Richtlinie nicht auf das Wettbewerbsrecht angewendet wird (eine Angelegenheit im Zuständigkeitsbereich des ECON), habe ich die dominante Marktstellung in Bezug auf Datensicherheit, Transparenz und Interoperabilität thematisiert. Solange wir nicht die Möglichkeiten haben um die großen Monopole zu zerschlagen, müssen wir sie zumindest aufbrechen. Das heißt wir müssen Wege finden um zu verhindern, dass Konzerne Verbraucherdaten nutzen, um Wettbewerber durch unlauteren Handel damit zu verdrängen. Ein zentraler Aspekt in dieser Frage ist die Interoperabilität. Aus unserer Sicht muss Interoperabilität die Ungleichheit bei der Marktmacht beseitigen. Aber ich werde auch unabhängig vom IMCO-Bericht die Aktivitäten des ECON in Bezug auf die Wettbewerbs-Instrumente genau verfolgen.

Vielfalt im Netz:

Ein „one-size-fits-all“-Ansatz ist für die heutige digitale Welt ungeeignet.

Die E-Commerce-Richtlinie verwendet einen horizontalen Ansatz. Aufgrund der Vielfalt der Akteure und angebotenen Dienstleistungen im Netz ist es fraglich, ob das noch Sinn macht. Aus unserer Sicht ist ein „one-size-fits-all“-Ansatz nicht dazu geeignet, allen neuen Herausforderungen in der digitalen Welt zu begegnen. Wir haben deshalb in unseren Änderungsanträgen eine maßgeschneiderte Regulierung gefordert, die die Art der Dienstleistung, Größe und Einfluss der Plattformen berücksichtigt.

Digitalsteuer:

Digitalkonzerne müssen endlich ihren Beitrag leisten.

Mit der Rolle der marktbeherrschenden Plattformen verknüpft ist die Frage der Digitalsteuer. Das Problem ist, dass die E-Commerce-Richtlinie die Frage der Steuerpolitik ausklammert und deshalb als Lösungsansatz ungeeignet ist. Gleichzeitig ist es angesichts des aktuellen Stands der OECD-Verhandlungen über eine Digitalsteuer unwahrscheinlich, dass die Kommission diese Frage bei ihrem ex-ante-Instrument berücksichtigt. Nichtsdestotrotz ist die Debatte dazu angesichts unserer Position zur Finanzierung der Bewältigung der COVID-19-Krise wieder auf der Tagesordnung. Die internationalen Verhandlungen zur Digitalsteuer sollten im Idealfall im Rahmen der Vereinten Nationen und nicht der OECD stattfinden. Die Kommission hat sich verpflichtet eine EU-weite Digitalsteuer voranzubringen, falls die Verhandlungen der OECD, die Ende dieses Jahres abgeschlossen sein sollen, nicht zu einem Ergebnis führen. Wenn die OECD-Verhandlungen scheitern, muss die EU schnell handeln und eine eigene Digitalsteuer auf den Weg bringen. Sollte eine Einigung über einen OECD-Standard innerhalb des vorgegeben Zeitfensters zustande kommen, muss die EU je nach Verhandlungsergebnis auch ambitioniertere Pläne umsetzen. Um eine gerechte Besteuerung der großen Konzerne zu erreichen müssen wir die Blockade durch Steueroasen innerhalb der EU beseitigen und in dieser Frage eine Mehrheitsentscheidung im Rat anstreben.

Plattformarbeit:

Der gesamte Bereich der Plattformarbeit sollte durch eine gesonderte, arbeitnehmerorientierte Gesetzgebung geregelt werden und nicht als Teil des Digital Service Act.

Der IMCO-Berichterstatter Alex Saliba (S&D) schreibt in seinem Berichtsentwurf, der von drei Fraktionen unterstützt wird, dass der DSA sich nicht mit dem Thema Plattformarbeit beschäftigen soll. Nach unserem Kenntnisstand plant die Kommission jedoch die Plattformarbeit in den DSA aufzunehmen. Deshalb unterstütze ich gemeinsam mit meine EMPL-Kolleg*innen die Forderung, Kommissar Schmits die Zuständigkeit für die Plattformarbeit zu geben. Es gibt eine Reihe von Punkten, die im Zusammenhang mit der Plattformarbeit geregelt werden müssen. Was aber sofort beendet werden muss ist das Outsourcing der Moderation durch die großen Plattformen, wodurch sie ihre Verantwortung für diejenigen abschieben, die mit teilweise traumatisierenden Inhalten konfrontiert sind. Wir brauchen klare Standards wie diese Arbeitnehmer*innen behandelt, geschützt und bezahlt werden.

Bekämpfung unsicherer Onlineprodukte:

Plattformen, die kommerzielle Dienstleistungen anbieten, müssen sich an klare Regeln halten. Wenn es um die Verantwortung von Online-Dienstleistern geht, ist es ein Unterschied, ob man über Posts in sozialen Netzwerken spricht oder über Plattformen, auf denen Produkte verkauft werden. Es ist keine Einschränkung der Meinungsfreiheit, wenn man illegale Produkte von einer Plattform löscht.

Ich bin der Überzeugung, dass mit Blick auf die kommerziellen Aktivitäten im Onlinehandel Selbstregulierung nicht ausreicht. Wir brauchen starke Sicherheitsstandards und Verpflichtungen zur Produktsicherheit und zum Verbraucherschutz (einschließlich Rechtsbehelfsmaßnahmen für Kund*innen) für alle kommerziellen Aktivitäten, flankiert von einem maßgeschneiderten Haftungssystem mit wirksamen Mechanismen zur Durchsetzung.

Zusammenarbeit mit öffentlichen Behörden:

Zuständige Behörden müssen alle relevanten Informationen und Daten zur Durchführung öffentlicher Aufgaben erhalten, innerhalb eines begrenzten und genau definierten Rahmens.

Es gibt bereits Instrumente für die Zusammenarbeit der Mitgliedsstaaten wie die Expertengruppe für E-Commerce, das Netzwerk „Consumer Protection Cooperation“ und das Binnenmarkt-Informationssystem. Diese sind jedoch für die Aufgabe ungeeignet. Vereinbarungen wie die zwischen der Kommission und den großen Buchungsplattformen (Airbnb, Booking, Expedia und Tripadvisor) über den Zugriff auf Daten sind ein richtiger, aber unzureichender Schritt. Der vereinbarte Austausch aggregierter Daten reicht u.a. für die Strafverfolgung auf europäischer und nationaler Ebene nicht aus. Ohne individuelle Daten können mehrere EU-Richtlinien nicht oder nur unzureichend umgesetzt werden, wie die Regelungen im Bereich Steuern und Zölle (lokale Gemeindesteuern). Da der von Airbnb bereitgestellte Vermittlungsservice von der eigentlichen Beherbergung getrennt ist, bleibt hier eine Regulierungslücke, die geschlossen werden muss. Aber um die Mitgliedsstaaten in die Lage zu versetzen, Plattformen angemessen zu regulieren und zu besteuern müssen sie die dafür nötigen Daten bekommen. Deshalb brauchen wir starke Transparenzvorgaben, um den Datenaustausch umzusetzen.

Datenschutz:

Keine personalisierte Werbung!

Aus meiner Sicht ist personalisierte Werbung ein schwerer Eingriff in die Freiheits- und Persönlichkeitsrechte. Trotz geltender Einschränkungen aufgrund der Datenschutz-Grundverordnung sind die Verbraucher*innen nicht ausreichend geschützt. Interessant ist in diesem Zusammenhang, dass laut Wallstreet Journal Verlage gerade einmal 4 Prozent mehr Umsatz durch personalisierte Werbung generieren als mit anderen Formen von Werbung. Aus meiner Sicht ist der einfachste Weg diese Praxis zu bekämpfen die Nutzung von persönlichen Daten nur dort zuzulassen, wo es für die Nutzung eines Dienstes notwendig ist. Leider ist das weit vom heutigen Stand der Dinge entfernt, deshalb brauchen wir in einem ersten Schritt mehr Kontrolle der Nutzer*innen über die Verwendung ihrer Daten und wie ihnen Ranking-Ergebnisse präsentiert werden. Das kann nur funktionieren, wenn die „Black Box“ Künstliche Intelligenz durch Transparenzvorgaben offengelegt wird, begleitet von unabhängigen und öffentlichen Überprüfungen. Das würde auch den Geschäftsmodellen Grenzen setzen, die mit Hilfe von Algorithmen fragwürdige Inhalte besonders hoch ranken und so zu deren Verbreitung beitragen.

Moderation von Onlineinhalten:

Um unsere Grundrechte insbesondere in Bezug auf die Meinungsfreiheit und das Recht auf Privatsphäre in der digitalen Welt zu schützen, lehnen wir jede Initiative ab, die eine generelle Überwachung von Informationen durch Onlinedienstleister vorsieht.

Deshalb muss das generelle Verbot der Überwachung in Artikel 15 der E-Commerce-Richtlinie bestehen bleiben.

In Bezug auf das „Notice and Action“-Verfahren sind wir gegen einen allgemeinen Regulierungsansatz: Je nach Größe, Dienstleistung und Marktposition brauchen wir individuelle Lösungen für große Konzerne und kleine Dienstleister. Jede Bestimmung erfordert eine Reihe von Schutzmaßnahmen für Grundrechte und eine angemessene unabhängige und unparteiische öffentliche Kontrolle. Nur Gerichte oder speziell für diesen Zweck eingerichtete unabhängige und unparteiische Behörden sollten entsprechende Meldungen herausgeben können. Für diese Reform des „Notice and Action“-Verfahrens benötigen wir effektive, transparente und auch ausreichend finanzierte Mechanismen zur Durchsetzung. Filter sind die falsche Antwort: Einige größere Konzerne verwenden Algorithmen für eine Moderation mit Hilfe automatischer Filter. Maschinen sind kontextblind: Zum einen entfernen diese Filter mehr als sie sollen und sind deshalb kontraproduktiv. Zum anderen ist ihre Fehleranfälligkeit durch zivilgesellschaftliche Organisationen und wissenschaftliche Einrichtungen hinlänglich nachgewiesen.

Noch wichtiger ist aber, dass wir nicht privaten Monopolen die Entscheidung darüber überlassen können, was im Netz gesagt werden darf oder ihnen wie von Facebook vorgeschlagen „Gute-Samariter-Klauseln“ einräumt, so dass faktisch straffrei auch legale Inhalte gelöscht und damit die Meinungsfreiheit eingeschränkt werden kann. Wenn Filter eingesetzt werden brauchen wir Garantien für Transparenz und Verantwortung. Da es sich hierbei um hochkomplexe Algorithmen handelt brauchen wir eine fachlich kompetente, unabhängige und unparteiische öffentliche Kontrolle. Aber Transparenz in Bezug auf die Algorithmen reicht nicht aus. Die Benutzer*innen benötigen geeignete Rechtsschutzmechanismen gegen fehlerhafte Filter oder wegen anderer Konflikte mit Plattformen.

Darüber hinaus widersprechen wir allen Gesetzesvorschlägen, die zu einer faktischen Verpflichtung zum Einsatz von Filtern führen, wie sie derzeit im Protokoll zur Bekämpfung des Terrorismus im Internet vorgesehen sind. Kein Filter der Welt kann die Verbreitung terroristischer Inhalte im Netz verhindern, solange Rankings so gestaltet sind, dass Nutzer*innen mit Negativanreizen angelockt werden. Anstelle von Filtern brauchen wir „Notice and Action“-Verfahren, ein Verbot des „Attention Seeking“-Geschäftsmodells und mehr Benutzerkontrolle in Kombination mit einer ordnungsgemäßen Durchsetzung der Gesetze außerhalb des Netzes.

Und nicht zuletzt dürfen wir nicht vergessen, dass sich tiefgreifende gesellschaftliche Probleme nicht allein durch die Moderation von Plattformen lösen lassen.

Hier geht es zur Seite der Europäischen Kommission