Plattformhaftung & Digital Services Act (DSA)

  • Pflichten von Meta, Google, X & Co.

  • Unterstützung bei der Meldung rechtswidriger Inhalte auf Plattformen.

  • Rechtsdurchsetzung gegen Plattformbetreiber.
Kostenfreie ErstberatungKostenfreie Erstberatung

Rechtsanwalt Carl Christian Müller

Gegen rechtswidrige Inhalte online vorgehen - Plattformen in die Pflicht nehmen

Rechtswidrige Inhalte werden heute in erheblichem Umfang über große Online-Plattformen verbreitet. Beleidigende Beiträge, falsche Tatsachenbehauptungen, rufschädigende Inhalte oder gezielte Diffamierungen erreichen dort binnen kürzester Zeit eine große Öffentlichkeit. Für Betroffene ist das besonders belastend – zumal Meldungen bei Plattformen häufig folgenlos bleiben.

Dabei sind Plattformen wie Meta (Facebook, Instagram), Google (YouTube), X oder TikTok kein rechtsfreier Raum. Mit dem Digital Services Act (DSA) hat der europäische Gesetzgeber die Pflichten von Plattformbetreibern deutlich verschärft. Werden diese Pflichten verletzt, können Betroffene ihre Rechte auch direkt gegenüber der Plattform durchsetzen.

Wir unterstützen Sie dabei, rechtswidrige Inhalte entfernen zu lassen und Plattformbetreiber rechtlich in die Verantwortung zu nehmen.

Jetzt kostenfrei beraten lassenKostenfreie Erstberatung

Ihr Ansprechpartner

Rechtsanwalt Carl Christian Müller, LL.M. Fachanwalt für Urheber- und Medienrecht

+49 30 206 436 810

Effektive Rechtsdurchsetzung gegenüber Plattformbetreibern

  • Fachanwalt für Urheber- und Medienrecht
  • Jahrelange Erfahrung in der Beratung von Betroffenen zum Umgang mit rechtswidrigen Inhalten auf Online-Plattformen
  • Durchsetzungsstark, vertraulich und konsequent
  • Bundesweit für Sie da
Jetzt kostenfrei beraten lassenKostenfreie Erstberatung

Ihre Rechte im Netz kennen und nutzen

Mit dem Digital Services Act (DSA) und dem Digitalen-Dienste-Gesetz (DDG) haben Sie jetzt stärkere Werkzeuge an der Hand, um sich gegen digitale Rechtsverletzungen zu wehren. Ob auf Social Media, in Bewertungsportalen oder auf Videoplattformen: Die neuen Regeln bringen mehr Verantwortung für große Plattformen – und mehr Rechte für Sie.

Hasspostings

Inhalte gemeldet, aber nichts passiert?

Leider zeigt die Praxis oft ein anderes Bild: Plattformen wie Meta, X (Twitter), Google/YouTube oder TikTok handeln oft zu spät oder gar nicht. Selbst offensichtlich rechtswidrige Inhalte – etwa Beleidigungen oder Verleumdungen – bleiben teils wochenlang online. Gründe sind automatisierte Prüfungen, interne Prioritäten und zu wenig juristisch geschultes Moderationspersonal. Für Betroffene bedeutet das Rufschädigung, psychische Belastung und ein Gefühl des Kontrollverlusts.

Rechtswidrige Inhalte und Untätigkeit der Plattform

Die gute Nachricht: Plattformbetreiber dürfen illegale Posts nicht einfach stehen lassen. Erhält ein Anbieter Kenntnis von einem rechtswidrigen Inhalt, muss er reagieren. Geschieht nichts, haften Plattformen bei Untätigkeit rechtlich.

Mit anderen Worten: Betreiber können nicht untätig zuschauen, wenn auf ihren Seiten Rechte verletzt werden. Dieses Prinzip der Störerhaftung besagt, dass Plattformen zwar keine generelle Überwachungspflicht haben, aber bei konkretem Hinweis umgehend einschreiten müssen. Sobald sie durch eine präzise Meldung von einer Rechtsverletzung erfahren, dürfen sie sich nicht länger auf Neutralität berufen. Tun sie es doch, kann man die Plattform haften lassen und gerichtlich zur Löschung zwingen. Wir unterstützen Sie dabei effektiv und rechtssicher.

Jetzt kostenfrei beraten lassenKostenfreie Erstberatung

Rechtsgrundlagen: DSA & DDG

Der wichtigste neue Rechtsrahmen ist der EU-Digital Services Act (DSA). Diese Verordnung gilt seit 17. Februar 2024 unmittelbar in allen EU-Mitgliedstaaten und verpflichtet Online-Plattformen zu wirksamen Maßnahmen gegen illegale Inhalte. Konkret verlangt der DSA, dass Anbieter ein „Notice-and-Action“-Verfahren (Melde- und Abhilfe-System) einrichten, über das Nutzer Rechtsverstöße melden können (Art. 16 DSA).

Die Plattform muss eingehende Hinweise schnell, objektiv und sorgfältig prüfen und rechtswidrige Inhalte unverzüglich entfernen oder sperren. Jede größere Plattform muss dafür leicht zugängliche Meldewege anbieten und ihre Entscheidungen dokumentieren sowie begründen. Versäumt ein Betreiber systematisch seine Pflichten, drohen empfindliche Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes.

Das Digitale-Dienste-Gesetz (DDG)

Mit dem Digitale-Dienste-Gesetz setzt Deutschland den Digital Services Act der EU in ein nationales Gesetz um. Das DDG dient dazu, den DSA durchzuführen und national auszugestalten. Für diese nähere Ausgestaltung hat der DSA den Mitgliedstaaten Bereiche vorgegeben, die sie selbst regeln können. So legt das DDG unter anderem fest, welche Behörde für die Durchsetzung und Überwachung der Vorschriften aus dem DSA zuständig ist. Deutschland hat dafür im DDG die Bundesnetzagentur bestimmt. Auch Bußgeldvorschriften werden im DDG festgelegt.

Die Relevanz von DSA und DDG für Sie

Der DSA und das DDG sollen den Nutzenden mehr Schutz vor Verbreitung von rechtsverletzenden Inhalten im digitalem Raum bieten – und es ist wertvoll, seine Rechte zu kennen, um Rechtsverletzungen auf Online Plattformen nicht wehrlos entgegen zu stehen.

DSA-Leitfaden für Betroffene:
So funktioniert das Melde- und Abhilfeverfahren

  • Rechtswidrigen Inhalt melden

    Plattformen sind verpflichtet, leicht zugängliche, vordefinierte und benutzerfreundliche Meldesysteme bereitzustellen. Nutzende können Inhalte melden, wenn sie gegen geltendes deutsches Recht verstoßen.

  • Entscheidung der Plattform abwarten

    Die Plattform ist verpflichtet, im Rahmen des sogenannten „Notice-and-Action“-Verfahrens zeitnah zu prüfen, ob der gemeldete Inhalt entfernt oder beibehalten wird.
    Die Entscheidung muss begründet werden und Informationen über mögliche Rechtsbehelfe enthalten.

  • Plattforminternes Beschwerdesystem nutzen

    Sollte die Rückmeldung der Plattform auf die Meldung negativ, später als 14 Tage, unzureichend begründet oder automatisiert erfolgen, kann Beschwerde gegen diese Entscheidung bei der Plattform erhoben werden. Die Beschwerde muss innerhalb von 6 Monaten nach Kenntnisnahme der Plattformrückmeldung erfolgen.

  • Vorgehen gegen die Plattform

    Ist das vom DSA vorgeschriebene Verfahren erfolglos bestritten worden, kann die Plattform im Wege der Störerhaftung in Anspruch genommen werden. Reagiert sie strukturell unzureichend, kommen zudem Beschwerden bei den zuständigen Aufsichtsstellen in Betracht, etwa bei der Bundesnetzagentur oder – je nach Plattform – bei der EU-Kommission.

Neue Plattformpflichten, neue Betroffenenrechte

Kostenfreie ErstberatungKostenfreie Erstberatung

Unterlassungsansprüche gegen Plattformen wegen Störerhaftung

Online-Plattformen haften grundsätzlich nicht unmittelbar für rechtswidrige Inhalte ihrer Nutzerinnen und Nutzer. Eine allgemeine Pflicht zur Vorabkontrolle besteht nicht. Erlangen Plattformbetreiber jedoch konkrete Kenntnis von einer Rechtsverletzung, sind sie verpflichtet, zu reagieren und den Inhalt zu prüfen und zu entfernen.

Bleibt eine Plattform trotz berechtigter Meldung untätig, kann sie als mittelbarer Störer in Anspruch genommen werden. Nach der Rechtsprechung haftet, wer – ohne selbst Täter zu sein – durch sein Handeln oder Unterlassen willentlich und adäquat kausal zur Rechtsverletzung beiträgt, etwa indem rechtswidrige Inhalte weiterhin öffentlich abrufbar bleiben.

In diesen Fällen begründen §§ 823, 1004 BGB (analog) zivilrechtliche Unterlassungs- und Löschungsansprüche. Eine qualifizierte Meldung, insbesondere durch ein anwaltliches Schreiben, genügt, um die erforderliche Kenntnis herzustellen. Ab diesem Zeitpunkt darf sich die Plattform nicht mehr auf Neutralität berufen.

Kurz gesagt: Rechtswidrige Inhalte müssen nach Kenntnisnahme entfernt werden. Erfolgt dies nicht, lassen sich Unterlassungs- und Löschungsansprüche auch gerichtlich gegen den Plattformbetreiber durchsetzen. Wir helfen Ihnen dabei, die richtigen Schritte zur richtigen Zeit einzuleiten.

Jetzt kostenfrei beraten lassenKostenfreie Erstberatung

Aktuelle Rechtsprechung zum DSA

OLG Nürnberg zum Digital Services Act

In seinem Urteil vom 23.07.2024 (Az. 3 U 2469/23) kam das Oberlandesgericht Nürnberg zu dem Ergebnis, dass die bisherigen Haftungsvoraussetzungen für mittelbare Störer weitgehend mit den neuen Anforderungen des DSA übereinstimmen. Es entschied, dass Plattformbetreiber wie YouTube nach Art. 6 DSA nur haften, wenn eine Rechtsverletzung für sie ohne vertiefte rechtliche Prüfung erkennbar ist. Äußerungen, die überwiegend als Meinungsäußerung zu qualifizieren sind, begründen ohne eine derart präzise und substanzielle Meldung keine Haftung, eine allgemeine Vorab‑Überwachungspflicht besteht weiterhin nicht. Erst bei einer hinreichend konkreten Meldung entsteht eine Pflicht zur Prüfung und gegebenenfalls Entfernung, wobei regelmäßig auch die Stellungnahme des Beitragserstellers einzuholen ist.

KG Berlin zum Digital Services Act

Eine aktuelle Entscheidung des Kammergerichts Berlin (Beschluss vom 25.08.2025, Az. 10 W 70/25) stellt klar, dass Art. 16 DSA zwar eine Pflicht der Plattform begründet, ein Meldesystem bereitzustellen, Nutzer aber für eine Meldung nach Art. 16 DSA nicht an das von der Plattform bereitgestellte Formular gebunden sind. Auch eine präzise und ausreichend begründete Mitteilung auf anderem Weg – etwa per anwaltlicher E‑Mail – kann die erforderliche Kenntnis der Plattform und damit die Prüf‑ und Entfernungspflichten nach dem DSA auslösen.

Plattformen in die Pflicht nehmen

  • rechtliche Nachschärfung von Löschungsverlangen
  • Durchsetzung von Ansprüchen gegenüber Plattformbetreibern
  • einstweiligen Verfügungen, wenn schnelles Handeln erforderlich ist
Jetzt kostenfrei beraten lassenKostenfreie Erstberatung
  • rechtliche Nachschärfung von Löschungsverlangen
  • Durchsetzung von Ansprüchen gegenüber Plattformbetreibern
  • einstweiligen Verfügungen, wenn schnelles Handeln erforderlich ist

Typische Probleme in der Praxis

Melden Sie einen rechtswidrigen Beitrag, muss die Plattform aktiv werden. Doch leider laufen viele Meldungen von Betroffenen ins Leere. Typische Probleme, mit denen wir in der Praxis konfrontiert sind:

Keine oder späte Reaktion

Oft erhalten Nutzer zunächst gar keine Antwort auf ihre Beschwerde oder nur automatische Eingangsbestätigungen. In manchen Fällen reagiert die Plattform wochenlang überhaupt nicht, während der schädigende Inhalt weiter öffentlich bleibt.

Standard-Ablehnungen durch Algorithmen

Viele Plattformen setzen auf automatisierte Filter und Standard-E-Mails. Diese erkennen komplexe juristische Kontexte aber nicht. Ein Algorithmus kann z.B. eine strafbare Beleidigung nicht zuverlässig von zulässiger scharfer Kritik unterscheiden, was dazu führt, dass berechtigte Beschwerden routinemäßig abgelehnt werden. Nutzer erhalten dann nur eine formelhafte Mitteilung, der gemeldete Inhalt verstoße „nicht gegen die Gemeinschaftsstandards“ – obwohl objektiv eine Rechtsverletzung vorliegt.

Fortbestehende Inhalte trotz Rechtswidrigkeit

Selbst offenkundig rechtswidrige Inhalte (z.B. volksverhetzende Posts oder eindeutige Verleumdungen) bleiben manchmal online, obwohl ein Verstoß klar ist. Interne Fehlentscheidungen oder Überlastung führen dazu, dass Inhalte stehen bleiben und sich weiter verbreiten. Die Folgen für Betroffene sind gravierend: Ruf und Psyche nehmen Schaden, während der Täter unverhohlen weitermacht.

Fehlerhafte Meldungen

Nicht immer liegt das Versagen allein bei der Plattform. Viele Meldungen durch Laien sind unvollständig oder unpräzise. Häufig fehlen z.B. Screenshots, URLs oder genaue Zeitangaben, um den Verstoß zu belegen. Mitunter wird auch die Rechtsverletzung falsch eingeordnet (etwa als „Beleidigung“ statt üble Nachrede), was der Plattform Angriffsfläche bietet, die Beschwerde abzulehnen. Auch Beweissicherung wird von Betroffenen oft zu spät oder lückenhaft betrieben. Diese Verfahrensfehler können dazu führen, dass eigentlich rechtswidrige Inhalte nicht gelöscht werden, weil die Beschwerde im Sande verläuft.

Sie müssen die Untätigkeit einer Plattform nicht hinnehmen. Im Gegenteil: Rechtlich gesehen darf die Plattform gar nicht untätig bleiben, sobald sie von einem klar rechtswidrigen Inhalt erfährt. Weigert sie sich dennoch, können wir sie haftbar machen. Gerichte betrachten das Stehenlassen gemeldeter, illegaler Posts  als „rechtswidrige Duldung“ des Plattformbetreibers. Das eröffnet Betroffenen handfeste Rechtsmittel, um doch noch zum Ziel zu kommen, notfalls mit gerichtlicher Hilfe.

Kostenfreie Erstberatung

Unsere Unterstützung: Rechte gegen Plattformen durchsetzen

Sie stehen nicht alleine da: Wir unterstützen Sie dabei, Ihre Rechte gegenüber der Plattform durchzusetzen, souverän und mit Nachdruck. Unsere Kanzlei hat sich auf Fälle von Social-Media-Haftung spezialisiert und bietet folgende Leistungen an, um rechtswidrige Inhalte effektiv löschen zu lassen:

Präzise Meldung & rechtliche Kenntnis herstellen

Wir formulieren Ihre Meldung an die Plattform juristisch präzise und vollständig. Jede Meldung enthält eine genaue Beschreibung des Inhalts, die konkrete Rechtsverletzung und die anwendbaren Gesetze. So sorgen wir dafür, dass der Plattformbetreiber konkrete Kenntnis vom Rechtsverstoß hat. Bereits durch ein solches anwaltliches Schreiben wird eine Reaktionspflicht der Plattform ausgelöst. Ausreden wie „wir wussten von nichts“ greifen dann nicht mehr.

Direkte Ansprache der Rechtsabteilung

Statt an generische Support-Formulare wenden wir uns direkt an die verantwortlichen Stellen der Plattform (Legal/Compliance-Abteilungen). In unserem Schreiben berufen wir uns ausdrücklich auf den DSA, das DDG und die einschlägigen Gesetze, und setzen eine kurze Frist. Erfahrungsgemäß reagieren Facebook, Twitter & Co. auf solche anwaltlichen Aufforderungen wesentlich schneller als auf normale Nutzermeldungen. Die Betreiber wissen: Ignorieren sie ein fundiertes Anwaltsschreiben, riskieren sie ein Gerichtsverfahren.

Fristsetzung & einstweilige Verfügung

Bleibt die Plattform trotz anwaltlicher Meldung untätig, zögern wir nicht, den Schritt zum Gericht zu gehen. Wir setzen knappe Fristen – oft 24 bis 48 Stunden – und beantragen anschließend eine einstweilige Verfügung auf Löschung des Inhalts. Eine solche gerichtliche Eilverfügung kann binnen weniger Tage erwirkt werden und verpflichtet den Plattformbetreiber, den Post sofort zu entfernen (meist unter Androhung hoher Ordnungsgelder). Gerichte teilen unsere Sicht: Die fortgesetzte Veröffentlichung eines rechtswidrigen Inhalts trotz Hinweis werten sie als unzulässiges Verhalten der Plattform. Mit der einstweiligen Verfügung erzwingen wir effektiv die Löschung.

Unterlassungs- und Schadensersatzklagen

Parallel dazu bereiten wir, falls nötig, eine Unterlassungsklage vor, um sicherzustellen, dass die Inhalte auch langfristig nicht wieder erscheinen. Darüber hinaus prüfen wir Schadensersatzansprüche gegen die Plattform oder den Verursacher. Wenn z.B. durch einen beleidigenden Beitrag persönliche Daten preisgegeben wurden oder Ihr Ruf erheblich gelitten hat, kann eine finanzielle Entschädigung gerechtfertigt sein. Nach Art. 82 DSGVO haftet eine Plattform auf Schadenersatz, wenn sie personenbezogene Daten (etwa durch Nicht-Löschung eines rechtswidrigen Posts) nicht ausreichend schützt. Wir setzen diese Schadensersatzforderungen mit Nachdruck durch – sei es außergerichtlich oder vor Gericht.

Beweissicherung & Dokumentation

Um Ihre Ansprüche erfolgreich durchzusetzen, sichern wir sämtliche Beweise professionell. Wir fertigen Screenshots, sichern URLs, Zeitstempel und – falls nötig – Quellcode-Auszüge und lassen diese notariell beglaubigen. So kann die Plattform vor Gericht nicht bestreiten, dass der Inhalt existiert(e). Diese forensische Dokumentation verschafft Ihnen einen entscheidenden Vorteil in jeder Auseinandersetzung.

Jetzt kostenfrei beraten lassenKostenfreie Erstberatung

Anonyme Angreifer identifizieren (§ 21 TDDDG)

Häufig stammen beleidigende oder verleumderische Inhalte von anonymen Accounts. Die Verfasser verstecken sich hinter Pseudonymen. Doch rechtlich muss man das nicht hinnehmen. Dank § 21 TDDDG (bis Mai 2024: § 21 TTDSG) gibt es einen Weg, die Identität solcher Angreifer aufzudecken. Dieses Gesetz (Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz) ermöglicht es, über einen gerichtlichen Beschluss die Herausgabe von Bestandsdaten eines Nutzers (z.B. Name, Adresse, E-Mail) vom Plattformbetreiber zu verlangen. So können wir beispielsweise ermitteln, wer hinter einem Fake-Profil auf Facebook steckt.

§ 21 TDDDG: Voraussetzungen für die Auskunft – wann Plattformen Daten herausgeben dürfen

Der Auskunftsanspruch nach § 21 TDDDG ist an enge Voraussetzungen geknüpft. Die Plattform darf Nutzerdaten nur herausgeben, wenn der gemeldete Inhalt klar rechtswidrig und insbesondere strafrechtlich relevant ist. Ohne Straftatbestand keine Daten – eine bloße Beleidigung oder Schmähkritik muss also die Schwelle zur Strafbarkeit überschreiten (z.B. § 185 StGB Beleidigung, § 186 Üble Nachrede, § 187 Verleumdung), damit ein Gericht die Enttarnung anordnet. Rein zivilrechtliche Persönlichkeitsrechtsverletzungen ohne Bezug zu einem Strafgesetz genügen nur dann, wenn es sich um „audiovisuelle Inhalte“ handelt – also z.B. ein Video oder Tonaufnahme, nicht aber rein schriftliche Beiträge. Diese Differenzierung schützt die Meinungsfreiheit: Kritik und harte Worte bleiben anonym möglich, während strafbare Angriffe nicht hinter Pseudonymen verborgen bleiben sollen.

Gerichtliches Verfahren und Umfang der Daten – welche Bestandsdaten Sie erhalten können

Erfüllt der Beitrag die Voraussetzungen, entscheidet das Gericht auf Antrag, dass der Anbieter die gespeicherten Daten des Nutzers herausgeben darf und muss. Wichtig: Herausgegeben werden dürfen nur Bestandsdaten wie Name, Anschrift, E-Mail oder Telefonnummer. Nutzungsdaten wie IP-Adressen oder Chat-Verläufe fallen nicht unter § 21 TDDDG. Das heißt, man erfährt zwar, wer den Account angemeldet hat, aber keine dynamischen Daten zur Online-Aktivität. Dennoch ist dieser Auskunftsanspruch ein wichtiger Hebel, um anonyme Täter zur Verantwortung zu ziehen. Haben wir einmal den Klarnamen, können wir direkt gegen die Person vorgehen – zivilrechtlich (Unterlassung, Schadensersatz) und gegebenenfalls auch strafrechtlich durch Strafanzeige.

Auskunft bei ausländischen Plattformen – internationale Zuständigkeit und praktische Umsetzung

Zu beachten ist, dass bei im Ausland sitzenden Plattformen besondere Hürden auftreten können (Stichwort internationale Zuständigkeit). Doch auch hier unterstützen wir Sie mit unserer Erfahrung: Gegebenenfalls stellen wir den Auskunftsantrag in dem Land, wo er erfolgversprechend ist, oder arbeiten mit dortigen Behörden zusammen. Unser Ziel bleibt, anonyme Angriffe online zu beenden, indem wir die Identität feststellen und den Täter aus der Deckung holen.

Jetzt kostenfrei beraten lassenKostenfreie Erstberatung

Plattformen haften lassen – kein Wunschdenken, sondern mit den richtigen Schritten Realität.

Wenn Plattformbetreiber ihrer Verantwortung nicht nachkommen, müssen Sie das als Betroffene:r nicht akzeptieren. Die Kombination aus DSA, Plattformhaftung und zivilrechtlichen Ansprüchen bietet ein robustes Instrumentarium, um digitale Rechtsverletzungen zu stoppen. Zivilrechtliche Rechtsdurchsetzung ist ein wichtiges Mittel, um im Ernstfall Ihre Ansprüche durchzusetzen, wenn Facebook, Twitter & Co. versagen. Wer sich allein auf die launenhaften internen Beschwerdeprozesse verlässt, verliert wertvolle Zeit – und riskiert, dass der angerichtete Schaden täglich größer wird.

Machen Sie sich bewusst: Plattformen sind keine neutralen Boten, sondern verantwortliche Intermediäre, die Gesetze einhalten müssen. Bleiben sie untätig, steht Ihnen der Rechtsweg offen. Wir setzen uns souverän und durchsetzungsstark dafür ein, dass rechtswidrige Inhalte gelöscht und Ihre Rechte gewahrt werden. Von der ersten Meldung bis zur letzten gerichtlichen Instanz begleiten wir Sie und verschaffen Ihnen Handlungssicherheit statt Ohnmacht.

Kostenfreie Erstberatung

Der Hassmelder - Konsequent gegen digitale Gewalt

Sie sind nicht allein. Digitale Gewalt und koordinierte Desinformation zielen darauf ab, Engagement zu lähmen – doch das Netz ist kein rechtsfreier Raum.

Der Hassmelder ist das automatisierte Rechtshilfesystem von Mueller.legal. Er führt Sie in wenigen Schritten durch die Beweissicherung. Danach übernehmen wir die juristische Prüfung, bewerten die Erfolgsaussichten und melden uns bei Ihnen mit einer ersten Einschätzung zum weiteren Vorgehen.

Zum kostenfreien HassmelderZum Hassmelder

Häufig gestellte Fragen zur Plattformhaftung & DSA

Welche Inhalte sind im Netz nach dem DSA verboten und warum?

Rechtswidrige Inhalte nach Art. 3 lit. h DSA sind solche, die gegen EU-Recht oder nationales Recht eines Mitgliedstaats verstoßen. Dazu zählen Beleidigungen, unbefugte Bildveröffentlichungen, Desinformation, illegaler Produktverkauf oder terroristische Inhalte.

  • Äußerungsdelikte (Beleidigung, üble Nachrede, Verleumdung):
    Plattformen müssen gemäß Art. 18 DSA nur Straftaten melden, die Leben oder Sicherheit gefährden – Äußerungsdelikte fallen nicht darunter. Betroffene müssen selbst aktiv werden.
  • Recht am eigenen Bild:
    Ohne Einwilligung ist die Verbreitung personenbezogener Bilder unzulässig (§ 22 KUG, DSGVO). Ausnahmen gelten beispielsweise bei Bildern, die Teilnehmende von öffentlichen Versammlungen, Aufzügen und Stadtfesten zeigen.
  • Persönlichkeitsrechte:
    Unwahre Tatsachenbehauptungen oder gezielte Diffamierungen verletzen das Persönlichkeitsrecht. Die Abgrenzung zur Meinungsfreiheit ist einzelfallabhängig.
  • Urheberrecht:
    Embedding oder Teilen fremder Inhalte über Plattform-Funktionen ist grundsätzlich zulässig. Herunterladen und Neuposten verstößt regelmäßig gegen das Urheberrecht.

Was ändert sich durch den DSA für Nutzer:innen bei illegalen Inhalten?

  1. Rechtswidrige Inhalte melden (Notice-and-Action, Art. 16 DSA)
    Plattformen müssen benutzerfreundliche Meldewege bereitstellen, über die Betroffene rechtswidrige Inhalte einfacher und schneller melden können. Ziel ist ein einheitlicherer und transparenter Prozess statt unübersichtlicher, plattformspezifischer Meldeschritte.

  2. Entscheidung anfechten (internes Beschwerdesystem, Art. 20 DSA)
    Plattformen (ausgenommen bestimmte Kleinst- und Kleinunternehmen) müssen ein internes Beschwerdemanagement anbieten. Nutzerinnen und Nutzer können sich beschweren, wenn
    • ein gemeldeter rechtswidriger Inhalt nicht entfernt wird oder
    • der eigene Beitrag gelöscht/gesperrt wurde.

Die Plattform muss ihre Entscheidung begründen und auf weitere Möglichkeiten hinweisen, etwa auf außergerichtliche Streitbeilegung (Art. 21 DSA) und sonstige Rechtsbehelfe.

Welche Konsequenzen drohen Nutzern, die wiederholt rechtswidrige Inhalte veröffentlichen?

Nutzersperrung bei wiederholten Missbrauch und Rechtsverstößen:

Gemäß Art. 23 DSA dürfen Online-Plattformen ihre Nutzenden zeitweise sperren, wenn diese wiederholt rechtswidrige Inhalte veröffentlichen oder das Melde- und Beschwerdesystem der Plattform missbräuchlich verwenden, z.B. durch das Melden von offensichtlich nicht rechtswidrigen Inhalten. Einer solchen Sperrung muss eine Verwarnung durch die Plattform vorausgehen, darf nur einzelfallbezogen erfolgen und muss insbesondere die Häufigkeit und das Ausmaß des fehlerhaftem Verhaltens berücksichtigen, etwa wie oft eine Person rechtswidrige Inhalte verbreitet oder unbegründete Meldungen einreicht, wie sich dieses Verhalten im Verhältnis zur gesamten Aktivität auf der Plattform darstellt, welche Folgen es hat und welche Absichten erkennbar sind. Plattformbetreiber sind zudem verpflichtet, in ihren Allgemeinen Geschäftsbedingungen darzulegen, wie sie mit solchen Fällen umgehen – einschließlich Beispielen für missbräuchliches Verhalten und Angaben zur Dauer möglicher Sperren.

Was ändert der Digital Services Act (DSA) für Nutzer bei Algorithmen, Empfehlungen und Werbung?

  1. Transparente Empfehlungen und Rankings
    Plattformen müssen verständlicher machen, warum bestimmte Inhalte im Feed oder in Rankings erscheinen. Nutzerinnen und Nutzer sollen die Hauptparameter der Empfehlungssysteme nachvollziehen können und erhalten mehr Transparenz über die Funktionsweise.
    Zudem müssen Plattformen mindestens eine Option anbieten, bei der Empfehlungen nicht auf Profiling (also nicht auf der Auswertung personenbezogener Daten) beruhen. Nutzer können damit personalisierte Empfehlungen ablehnen.

  2. Werbung
    Werbung muss klar als solche erkennbar sein. Nutzerinnen und Nutzer sollen außerdem Informationen erhalten, wer die Werbung bezahlt und warum sie angezeigt wird. Für Minderjährige gelten besondere Schutzvorgaben: profilingbasierte zielgerichtete Werbung gegenüber Minderjährigen ist untersagt.

Was sind „Trusted Flagger“ und welche Rolle spielen sie bei der Plattformhaftung?

Trusted Flagger (vertrauenswürdige Hinweisgeber) sind von Behörden oder Plattformen anerkannte Organisationen oder Personen, die besonders zuverlässige Meldungen über rechtswidrige Inhalte abgeben. Nach dem EU-Digital Services Act (DSA) müssen Anbieter von Online-Plattformen solchen Meldungen mit Vorrang nachgehen. Trusted Flagger sollen helfen, illegale Inhalte wie Hassrede, Betrug oder Urheberrechtsverletzungen schnell zu identifizieren und zu entfernen. Dadurch tragen sie zur effektiveren Durchsetzung der Plattformhaftung bei, ohne dass Nutzerrechte oder Meinungsfreiheit unverhältnismäßig eingeschränkt werden.

Wer kann in Deutschland als Trusted Flagger nach dem Digital Services Act anerkannt werden?

In Deutschland können vor allem staatliche Stellen, anerkannte NGOs oder spezialisierte zivilgesellschaftliche Organisationen als Trusted Flagger benannt werden. Zuständig für die Anerkennung ist die Koordinierungsstelle für digitale Dienste in der Bundesnetzagentur (BNetzA). Diese prüft, ob eine Organisation nachweislich über Fachwissen, Unabhängigkeit und eine verlässliche Meldungspraxis verfügt. Beispiele könnten etwa Verbraucherschutzverbände oder Institutionen sein, die sich auf Hassrede- oder Jugendschutzmeldungen spezialisiert haben.

Rechtswidrige Inhalte online? Plattformen stehen in der Pflicht – wir helfen bei der Durchsetzung.

Kostenfreie ErstberatungKostenfreie Erstberatung