Digital Services Act (DSA-E)

Europäisches Recht für soziale Medien

Redaktion Recht

Mit nicht weniger als dem Einsatz der ersten Verkehrsampel – 1914 in Cleveland – verglich die Vizepräsidentin der EU-Kommission Margrethe Vestager die im Dezember 2020 vorgelegten Entwürfe zweier Verordnungen – des Digital Services Acts (DSA-E) und des Digital Markets Acts (DMA-E). Sie erhofft sich, Ordnung in das digitale Chaos zu bringen; so dienen die beiden Entwürfe der Regulierung digitaler Dienste und Märkte.

Die Ausführungen im Beitrag beziehen sich auf den Entwurf des Digital Services Acts (DSA-E).

Printausgabe tv diskurs: 25. Jg., 2/2021 (Ausgabe 96), S. 94-97

Vollständiger Beitrag als:


Was sind die Ziele des DSA-E?

Die neuen Regelungen sollen die deutlich in die Jahre gekommene E-Commerce-Richtlinie (2000/31/EG) modernisieren. Bei Inkrafttreten dieser Richtlinie im Jahr 2000 war beispielsweise Facebook noch nicht einmal gegründet (2004). Die Kommission führt für die jeweiligen Beteiligten des digitalen Raumes insbesondere folgende Ziele auf. Für die Bürgerinnen und Bürger: „weniger illegale Inhalte und ein besserer Schutz ihrer Grundrechte“. Für die Anbieter digitaler Dienste: „Rechtssicherheit, Harmonisierung der Vorschriften und eine einfachere Gründung und Expansion in Europa“. Eine „strengere demokratische Kontrolle systemischer Plattformen“ sowie „eine Minderung systemischer Risiken wie Manipulation oder Desinformation“ sieht die Kommission als Ziele für die Gesellschaft insgesamt vor (siehe Gesetz über digitale Dienste: mehr Sicherheit und Verantwortung im Online-Umfeld).

Im Entwurfstext ist in Art. 1 (2) DSA-E entsprechend normiert:

„Diese Verordnung hat folgende Ziele:
a) Beitrag zum reibungslosen Funktionieren des Binnenmarkts für Vermittlungsdienste;
b) Festlegung einheitlicher Regeln für ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld, in dem die in der Charta verankerten Grundrechte wirksam geschützt sind.“
 

Aufbau des DSA-E

Der Verordnungstext ist in fünf Kapitel gegliedert:

  • Kapitel I: „Allgemeine Bestimmungen“,
  • Kapitel II: „Haftung von Anbietern von Vermittlungsdiensten“,
  • Kapitel III: „Sorgfaltspflichten für ein transparentes und sicheres Online-Umfeld“,
  • Kapitel IV: „Durchführung, Zusammenarbeit, Sanktionen und Durchsetzung“ sowie
  • Kapitel V: „Schlussbestimmungen“.

Kapitel III und IV sind in jeweils weitere fünf Sektionen unterteilt.
 

Welche digitalen Dienste erfasst der DSA-E?

Art. 1 benennt als Adressaten der Regelungen die Vermittlungsdienste. Als Oberbegriff zu verstehen, fallen darunter zunächst diejenigen Vermittlungsdienste, die über ein Infrastruktur-Netz verfügen (z.B. Internetanbieter, Domainnamen-Registrierstellen). Als erste Unterkategorie der Vermittlungsdienste ist der Hosting-Dienst zu nennen (z.B. Cloud- und Webhosting-Dienste). Vom Hosting-Dienst ist eine weitere Unterkategorie – die Onlineplattform – abzugrenzen. Auch sie ist ein Hosting-Dienst, im Unterschied zu diesem speichert sie die im Auftrag der Nutzerinnen und Nutzer bereitgestellten Informationen jedoch nicht nur, sondern verbreitet sie im Auftrag der Nutzenden auch öffentlich (z.B. Social-Media-Plattformen, App-Stores). Schließlich betreffen die Regelungen des Entwurfs „sehr große (Online-)Plattformen“. Ab wann eine Plattform als „sehr groß“ gewertet wird, bestimmt Art. 25 DSA-E:

„[…] Online-Plattformen, die ihre Dienste für aktive Nutzer in der Union erbringen, deren durchschnittliche monatliche Zahl sich auf mindestens 45 Mio. Personen beläuft […].“
 

Um welche illegalen Inhalte geht es?

Der verfügende Teil der Entwurfsfassung verzichtet bewusst auf eine Legaldefinition, was unter illegalen Inhalten zu verstehen ist. So dient der DSA-E der Schaffung eines Rahmens – die Sorgfaltspflichten und Haftungsvoraussetzungen werden harmonisiert –, nationale Rechtsvorschriften, in denen normiert ist, was illegal ist, bleiben indes unberührt. In Deutschland ist hierbei insbesondere an die Straftatbestände des Strafgesetzbuches (StGB) zu denken. In der Begründung des Entwurfs werden unter dem Begriff „illegale Inhalte“ jedoch insbesondere „Hassrede“, „terroristische Inhalte“ oder „rechtswidrige diskriminierende Inhalte“, die „Weitergabe von Darstellungen sexuellen Missbrauchs von Kindern“, die „rechtswidrige Weitergabe privater Bilder ohne Zustimmung“ sowie das „Cyber-Stalking“ verstanden (vgl. Entwurfsfassung/Begründung, S. 23).
 

Haftung

Die Haftungsregelungen sind im Kapitel II geregelt. Konkret sind die Haftungsausschlüsse benannt. Der Entwurfsbegründung nach

„[…] sollte nur festgelegt werden, wann der betreffende Anbieter von Vermittlungsdiensten im Zusammenhang mit von den Nutzern bereitgestellten illegalen Inhalten nicht haftbar gemacht werden kann. Die Vorschriften sollten nicht so ausgelegt werden, dass sie eine positive Grundlage dafür darstellen, festzustellen, wann ein Anbieter haftbar gemacht werden kann; dies ist nach den geltenden Vorschriften des Unions- oder nationalen Rechts zu bestimmen“ (siehe Entwurfsfassung/Begründung, S. 24).

Für die Haftung der Hosting-Dienste orientiert sich der DSA-E am Grundsatz der E-Commerce-Richtlinie – geläufig als das „Notice-and-take-down-Prinzip“. So trifft Hosting-Dienste für die im Auftrag einer Nutzerin bzw. eines Nutzers gespeicherten Informationen keine eigene Prüfungspflicht. Gehaftet wird „nur“, wenn der Dienst nach Kenntnis des illegalen Inhalts untätig bleibt, beispielsweise illegale Inhalte nicht entfernt oder den Zugang dazu sperrt (vgl. Art. 5 DSA-E).


Sorgfaltspflichten

Die Entwurfsfassung sieht asymmetrische Sorgfaltspflichten vor – je größer und wirkungsvoller die Diensteanbieter, desto umfassender die Verpflichtungen. In den regulatorischen Fokus rücken dabei insbesondere die sehr großen Onlineplattformen, für sie gelten besondere Verpflichtungen (siehe Tabelle 1).
 


Ein wesentlicher Aspekt des Entwurfs ist die Verpflichtung zur Transparenz von Onlinewerbung, die Onlineplattformen, unabhängig von ihrer Größe, betrifft (Art. 24 DSA-E). Die Kommission misst Onlinewerbung erhebliche Risiken bei – „von Werbung, die selbst illegale Inhalte aufweist, bis hin zu Beiträgen zu finanziellen Anreizen für die Veröffentlichung oder Verstärkung illegaler oder anderweitig schädlicher Online-Inhalte und -Tätigkeiten […]“ (siehe Entwurfsfassung/Begründung, S. 34). Um diese Risiken zu vermeiden, müssen Onlineplattformen daher sicherstellen,

„[…] dass die Nutzer für jede einzelne Werbung, die jedem einzelnen Nutzer angezeigt wird, in klarer und eindeutiger Weise und in Echtzeit Folgendes sehen können:
a) dass es sich bei den angezeigten Informationen um Werbung handelt,
b) die natürliche oder juristische Person, in deren Namen die Werbung angezeigt wird,
c) aussagekräftige Informationen über die wichtigsten Parameter zur Bestimmung der Nutzer, denen die Werbung angezeigt wird“ (Art. 24 DSA-E).

Das „Mehr“ an Pflichten für die sehr großen Onlineplattformen fußt auf ordnungspolitischen Bedenken – so habe die Art und Weise der Nutzung dieser mächtigen Techunternehmen „großen Einfluss auf die Online-Sicherheit, die öffentliche Meinungsbildung und den öffentlichen Diskurs sowie den Online-Handel“ (vgl. Entwurfsfassung/Begründung, S. 35). Ihnen wird damit zusätzlich auferlegt, mindestens einmal jährlich „alle erheblichen systemischen Risiken, die sich aus dem Betrieb und der Nutzung ihrer Dienste in der Union ergeben“, zu prüfen (Art. 25 DSA-E).

Drei Kategorien systemischer Risiken müssen die Onlineplattformen dabei in den Blick nehmen:

„a) Verbreitung illegaler Inhalte über ihre Dienste;

b) etwaige nachteilige Auswirkungen auf die Ausübung der Grundrechte auf Achtung des Privat- und Familienlebens, auf die Meinungs- und Informationsfreiheit, auf das Diskriminierungsverbot und auf die Rechte des Kindes, die in den Artikeln 7, 11, 21 und 24 der Charta verankert sind;

c) vorsätzliche Manipulationen ihres Dienstes, auch durch unauthentische Nutzung oder automatisierte Ausnutzung des Dienstes, mit tatsächlichen oder absehbaren nachteiligen Auswirkungen auf den Schutz der öffentlichen Gesundheit, auf Minderjährige und auf die gesellschaftliche Debatte oder tatsächlichen oder vorhersehbaren Auswirkungen auf Wahlprozesse und die öffentliche Sicherheit.“ (Art. 26 Abs. 1 DSA-E)
 

Durchsetzung und Sanktionsmöglichkeiten/„Aufsicht“

Es gilt der Grundsatz, dass für die Sicherstellung einer angemessenen Aufsicht und die Durchsetzung der vorgesehenen Sorgfaltspflichten die Mitgliedstaaten selbst verantwortlich sind. Voraussetzung ist, dass die Mitgliedstaaten mindestens eine Behörde mit diesen Aufgaben betrauen und diese als sogenannten „Koordinator für digitale Dienste“ benennen. Dabei ist die Schaffung neuer Aufsichtsbehörden genauso möglich wie das Übertragen der neuen Kompetenzen an bestehende nationale Behörden. Der „Koordinator für digitale Dienste“ soll insbesondere als zentrale Kontaktstelle für die EU-Kommission und die „Koordinatoren für digitale Dienste“ der anderen Mitgliedstaaten fungieren. Wesentlich für das Agieren der Behörde ist ihre Unabhängigkeit von privaten oder öffentlichen Einrichtungen; es bleibt ihr allerdings unbenommen, andere nationale Behörden wie beispielsweise die Strafverfolgungsbehörden zu konsultieren. Um eine einheitliche Anwendung des DSA-E zu gewährleisten, sollen sich die jeweiligen „Koordinatoren für digitale Dienste“ zu einem „Europäischen Gremium für digitale Dienste“ zusammenschließen. Dieses Komitee soll als unabhängige Beratungsgruppe die Kommission auf Unionsebene unterstützen.

Die EU-Kommission selbst weist sich Kompetenzen bei der Überwachung der sehr großen Onlineplattformen zu (Art. 51 f.) So liest man in der Entwurfsbegründung:

„Da Maßnahmen zur Gewährleistung der Einhaltung dieser Verordnung durch sehr große Online-Plattformen mit besonderen Herausforderungen verbunden sein können und wirksame Maßnahmen angesichts des Umfangs und der Auswirkungen dieser Plattformen und der möglicherweise resultierenden Schäden gleichzeitig sehr wichtig sind, sollte die Kommission über wirksame Untersuchungs- und Durchsetzungsbefugnisse verfügen, um in Bezug auf bestimmte Vorschriften dieser Verordnung Untersuchungs-, Durchsetzungs- und Überwachungsmaßnahmen treffen zu können, wobei der Grundsatz der Verhältnismäßigkeit sowie die Rechte und Interessen der Beteiligten umfassend einzuhalten sind“ (Entwurfsfassung/Begründung, S. 47).


Sanktionen

Die Kommission kann gegen die sehr großen Onlineplattformen – bei Zuwiderhandlung gegen die Bestimmungen der Verordnung – Geldbußen bis zu einem Höchstbetrag von 6 % ihres im vorangegangenen Geschäftsjahr erzielten Gesamtumsatzes verhängen (vgl. Art. 59 DSA-E).
 

Wie geht es weiter?

Der vorgelegte Verordnungsentwurf der Kommission wird im Rahmen des ordentlichen Gesetzgebungsverfahrens von EU-Parlament und Ministerrat (Vertreterinnen und Vertreter der Regierungen der Mitgliedstaaten) erörtert.

Das EU-Parlament befasste sich bereits mit der Entwurfsfassung und zeigte sich angetan. So bekundete Anna Cavazzini (Bündnis 90/Die Grünen), Europaabgeordnete und Vorsitzende des Ausschusses für Binnenmarkt und Verbraucherschutz: „Der Kommissionsvorschlag wurde grundsätzlich positiv im Ausschuss aufgenommen.“ Und auch die dänische Europaabgeordnete und Berichterstatterin des DSA Christel Schaldemose (Sozialdemokraten) befand: „Der Vorschlag der Kommission ist ein guter.“ Kritik übten die Europaabgeordneten daher nur in geringem Maß – Nachbesserungen wurden insbesondere für die personalisierte Werbung und die Interoperabilität bei Messengerdiensten gefordert. Geplant ist, dass die Verordnungen (DSA und DMA) 2022 in Kraft treten (vgl. Herwartz/Siebenhaar 2021).

Es bleibt abzuwarten, in welcher Fassung die Verordnungen schließlich das Gesetzgebungsverfahren verlassen. So werden die Internetgiganten nichts unversucht lassen, im Rahmen ihrer Möglichkeiten Einfluss auf das Gesetzgebungsverfahren zu nehmen. Im Ranking der Unternehmen mit dem höchsten Lobbyengagement belegen Google, Microsoft und Facebook drei der ersten fünf Plätze (vgl. Podszun/Langenstein 2020). Justizministerin Christine Lambrecht führte in einem Gastbeitrag auf Zeit Online u.a. aus, dass die bisherige Vorgehensweise – das „Laissez-faire“ der großen Digitalanbieter – „krachend gescheitert“ sei. Die Plattformen durch gesetzliche Regelungen in die Pflicht zu nehmen, befindet sie daher als den richtigen Weg. Verbesserungswürdig sei jedoch u.a., dass die Opfer von Diffamierungen eine Löschung von den Plattformen einfordern können müssten, sollten diese Posts nicht von den Unternehmen entfernt werden. Auch bedürfe es für die Löschfrist von offensichtlich strafbaren Inhalten klarer Zeitvorgaben, vergleichbar des deutschen NetzDG. Abschließend postuliert Lambrecht: „Für das, was in der analogen Welt strafbar ist, darf es auch im Netz keine Nachsicht geben. Und die Grenzen unseres öffentlichen Diskurses werden nicht im Silicon Valley gezogen: Wir Europäerinnen und Europäer bestimmen sie selbst. Demokratisch, transparent und in Achtung des Lebenselements unserer Demokratie: des Grundrechts auf freie Meinungsäußerung.“ (Lambrecht 2021)

Wir halten Sie über die weiteren Entwicklungen auf dem Laufenden. Zur näheren Information empfehlen wir die Lektüre der Fragen und Antworten der EU-Kommission (siehe Quellen).
 

Quellen:

Europäische Kommission:  Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC (Entwurfsfassung DSA-E), 15.12.2020. Abrufbar unter: https://eur-lex.europa.eu (letzter Zugriff: 19.03.2021)

Europäische Kommission: Gesetz über digitale Dienste: mehr Sicherheit und Verantwortung im Online-Umfeld. Abrufbar unter: https://ec.europa.eu (letzter Zugriff: 19.03.2021)

Europäische Kommission: Gesetz über digitale Dienste – Fragen und Antworten. Abrufbar unter: https://ec.europa.eu (letzter Zugriff: 19.03.2021)
 

Literatur:

Herwartz, C./Siebenhaar, H. P.:Big Tech: EU stellt härtere Bedingungen für digitale Plattformen. In: Handelsblatt, 24.02.2021. Abrufbar unter: https://www.handelsblatt.com (letzter Zugriff: 19.03.2021)

Lambrecht, C.: Digital Services Act: Warum wir jetzt ein europäisches Recht für soziale Medien brauchen. Gastbeitrag. In: Zeit Online, 22.01.2021. Abrufbar unter: https://www.zeit.de (letzter Zugriff: 19.03.2021)

Podszun, R./Langenstein, S.: Europäische Digital-Gesetzgebung: Gatekeeper im Visier. Gastbeitrag. In: Lto.de, 16.12.2020. Abrufbar unter: https://www.lto.de (letzter Zugriff: 19.03.2021)