-
Pflichten von Meta, Google, X & Co.
-
Unterstützung bei der Meldung rechtswidriger Inhalte auf Plattformen.
- Rechtsdurchsetzung gegen Plattformbetreiber.
Plattformhaftung & Digital Services Act (DSA)
Rechtsanwalt Carl Christian Müller
Pflichten von Meta, Google, X & Co.
Unterstützung bei der Meldung rechtswidriger Inhalte auf Plattformen.
Rechtsanwalt Carl Christian Müller
Rechtswidrige Inhalte werden heute in erheblichem Umfang über große Online-Plattformen verbreitet. Beleidigende Beiträge, falsche Tatsachenbehauptungen, rufschädigende Inhalte oder gezielte Diffamierungen erreichen dort binnen kürzester Zeit eine große Öffentlichkeit. Für Betroffene ist das besonders belastend – zumal Meldungen bei Plattformen häufig folgenlos bleiben.
Dabei sind Plattformen wie Meta (Facebook, Instagram), Google (YouTube), X oder TikTok kein rechtsfreier Raum. Mit dem Digital Services Act (DSA) hat der europäische Gesetzgeber die Pflichten von Plattformbetreibern deutlich verschärft. Werden diese Pflichten verletzt, können Betroffene ihre Rechte auch direkt gegenüber der Plattform durchsetzen.
Wir unterstützen Sie dabei, rechtswidrige Inhalte entfernen zu lassen und Plattformbetreiber rechtlich in die Verantwortung zu nehmen.
Rechtsanwalt Carl Christian Müller, LL.M. Fachanwalt für Urheber- und Medienrecht
Leider zeigt die Praxis oft ein anderes Bild: Plattformen wie Meta, X (Twitter), Google/YouTube oder TikTok handeln oft zu spät oder gar nicht. Selbst offensichtlich rechtswidrige Inhalte – etwa Beleidigungen oder Verleumdungen – bleiben teils wochenlang online. Gründe sind automatisierte Prüfungen, interne Prioritäten und zu wenig juristisch geschultes Moderationspersonal. Für Betroffene bedeutet das Rufschädigung, psychische Belastung und ein Gefühl des Kontrollverlusts.
Die gute Nachricht: Plattformbetreiber dürfen illegale Posts nicht einfach stehen lassen. Erhält ein Anbieter Kenntnis von einem rechtswidrigen Inhalt, muss er reagieren. Geschieht nichts, haften Plattformen bei Untätigkeit rechtlich.
Mit anderen Worten: Betreiber können nicht untätig zuschauen, wenn auf ihren Seiten Rechte verletzt werden. Dieses Prinzip der Störerhaftung besagt, dass Plattformen zwar keine generelle Überwachungspflicht haben, aber bei konkretem Hinweis umgehend einschreiten müssen. Sobald sie durch eine präzise Meldung von einer Rechtsverletzung erfahren, dürfen sie sich nicht länger auf Neutralität berufen. Tun sie es doch, kann man die Plattform haften lassen und gerichtlich zur Löschung zwingen. Wir unterstützen Sie dabei effektiv und rechtssicher.
Der wichtigste neue Rechtsrahmen ist der EU-Digital Services Act (DSA). Diese Verordnung gilt seit 17. Februar 2024 unmittelbar in allen EU-Mitgliedstaaten und verpflichtet Online-Plattformen zu wirksamen Maßnahmen gegen illegale Inhalte. Konkret verlangt der DSA, dass Anbieter ein „Notice-and-Action“-Verfahren (Melde- und Abhilfe-System) einrichten, über das Nutzer Rechtsverstöße melden können (Art. 16 DSA).
Die Plattform muss eingehende Hinweise schnell, objektiv und sorgfältig prüfen und rechtswidrige Inhalte unverzüglich entfernen oder sperren. Jede größere Plattform muss dafür leicht zugängliche Meldewege anbieten und ihre Entscheidungen dokumentieren sowie begründen. Versäumt ein Betreiber systematisch seine Pflichten, drohen empfindliche Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes.
Mit dem Digitale-Dienste-Gesetz setzt Deutschland den Digital Services Act der EU in ein nationales Gesetz um. Das DDG dient dazu, den DSA durchzuführen und national auszugestalten. Für diese nähere Ausgestaltung hat der DSA den Mitgliedstaaten Bereiche vorgegeben, die sie selbst regeln können. So legt das DDG unter anderem fest, welche Behörde für die Durchsetzung und Überwachung der Vorschriften aus dem DSA zuständig ist. Deutschland hat dafür im DDG die Bundesnetzagentur bestimmt. Auch Bußgeldvorschriften werden im DDG festgelegt.
Der DSA und das DDG sollen den Nutzenden mehr Schutz vor Verbreitung von rechtsverletzenden Inhalten im digitalem Raum bieten – und es ist wertvoll, seine Rechte zu kennen, um Rechtsverletzungen auf Online Plattformen nicht wehrlos entgegen zu stehen.
Plattformen sind verpflichtet, leicht zugängliche, vordefinierte und benutzerfreundliche Meldesysteme bereitzustellen. Nutzende können Inhalte melden, wenn sie gegen geltendes deutsches Recht verstoßen.
Die Plattform ist verpflichtet, im Rahmen des sogenannten „Notice-and-Action“-Verfahrens zeitnah zu prüfen, ob der gemeldete Inhalt entfernt oder beibehalten wird.
Die Entscheidung muss begründet werden und Informationen über mögliche Rechtsbehelfe enthalten.
Sollte die Rückmeldung der Plattform auf die Meldung negativ, später als 14 Tage, unzureichend begründet oder automatisiert erfolgen, kann Beschwerde gegen diese Entscheidung bei der Plattform erhoben werden. Die Beschwerde muss innerhalb von 6 Monaten nach Kenntnisnahme der Plattformrückmeldung erfolgen.
Ist das vom DSA vorgeschriebene Verfahren erfolglos bestritten worden, kann die Plattform im Wege der Störerhaftung in Anspruch genommen werden. Reagiert sie strukturell unzureichend, kommen zudem Beschwerden bei den zuständigen Aufsichtsstellen in Betracht, etwa bei der Bundesnetzagentur oder – je nach Plattform – bei der EU-Kommission.
Online-Plattformen haften grundsätzlich nicht unmittelbar für rechtswidrige Inhalte ihrer Nutzerinnen und Nutzer. Eine allgemeine Pflicht zur Vorabkontrolle besteht nicht. Erlangen Plattformbetreiber jedoch konkrete Kenntnis von einer Rechtsverletzung, sind sie verpflichtet, zu reagieren und den Inhalt zu prüfen und zu entfernen.
Bleibt eine Plattform trotz berechtigter Meldung untätig, kann sie als mittelbarer Störer in Anspruch genommen werden. Nach der Rechtsprechung haftet, wer – ohne selbst Täter zu sein – durch sein Handeln oder Unterlassen willentlich und adäquat kausal zur Rechtsverletzung beiträgt, etwa indem rechtswidrige Inhalte weiterhin öffentlich abrufbar bleiben.
In diesen Fällen begründen §§ 823, 1004 BGB (analog) zivilrechtliche Unterlassungs- und Löschungsansprüche. Eine qualifizierte Meldung, insbesondere durch ein anwaltliches Schreiben, genügt, um die erforderliche Kenntnis herzustellen. Ab diesem Zeitpunkt darf sich die Plattform nicht mehr auf Neutralität berufen.
Kurz gesagt: Rechtswidrige Inhalte müssen nach Kenntnisnahme entfernt werden. Erfolgt dies nicht, lassen sich Unterlassungs- und Löschungsansprüche auch gerichtlich gegen den Plattformbetreiber durchsetzen. Wir helfen Ihnen dabei, die richtigen Schritte zur richtigen Zeit einzuleiten.
In seinem Urteil vom 23.07.2024 (Az. 3 U 2469/23) kam das Oberlandesgericht Nürnberg zu dem Ergebnis, dass die bisherigen Haftungsvoraussetzungen für mittelbare Störer weitgehend mit den neuen Anforderungen des DSA übereinstimmen. Es entschied, dass Plattformbetreiber wie YouTube nach Art. 6 DSA nur haften, wenn eine Rechtsverletzung für sie ohne vertiefte rechtliche Prüfung erkennbar ist. Äußerungen, die überwiegend als Meinungsäußerung zu qualifizieren sind, begründen ohne eine derart präzise und substanzielle Meldung keine Haftung, eine allgemeine Vorab‑Überwachungspflicht besteht weiterhin nicht. Erst bei einer hinreichend konkreten Meldung entsteht eine Pflicht zur Prüfung und gegebenenfalls Entfernung, wobei regelmäßig auch die Stellungnahme des Beitragserstellers einzuholen ist.
Eine aktuelle Entscheidung des Kammergerichts Berlin (Beschluss vom 25.08.2025, Az. 10 W 70/25) stellt klar, dass Art. 16 DSA zwar eine Pflicht der Plattform begründet, ein Meldesystem bereitzustellen, Nutzer aber für eine Meldung nach Art. 16 DSA nicht an das von der Plattform bereitgestellte Formular gebunden sind. Auch eine präzise und ausreichend begründete Mitteilung auf anderem Weg – etwa per anwaltlicher E‑Mail – kann die erforderliche Kenntnis der Plattform und damit die Prüf‑ und Entfernungspflichten nach dem DSA auslösen.
Melden Sie einen rechtswidrigen Beitrag, muss die Plattform aktiv werden. Doch leider laufen viele Meldungen von Betroffenen ins Leere. Typische Probleme, mit denen wir in der Praxis konfrontiert sind:
Oft erhalten Nutzer zunächst gar keine Antwort auf ihre Beschwerde oder nur automatische Eingangsbestätigungen. In manchen Fällen reagiert die Plattform wochenlang überhaupt nicht, während der schädigende Inhalt weiter öffentlich bleibt.
Viele Plattformen setzen auf automatisierte Filter und Standard-E-Mails. Diese erkennen komplexe juristische Kontexte aber nicht. Ein Algorithmus kann z.B. eine strafbare Beleidigung nicht zuverlässig von zulässiger scharfer Kritik unterscheiden, was dazu führt, dass berechtigte Beschwerden routinemäßig abgelehnt werden. Nutzer erhalten dann nur eine formelhafte Mitteilung, der gemeldete Inhalt verstoße „nicht gegen die Gemeinschaftsstandards“ – obwohl objektiv eine Rechtsverletzung vorliegt.
Selbst offenkundig rechtswidrige Inhalte (z.B. volksverhetzende Posts oder eindeutige Verleumdungen) bleiben manchmal online, obwohl ein Verstoß klar ist. Interne Fehlentscheidungen oder Überlastung führen dazu, dass Inhalte stehen bleiben und sich weiter verbreiten. Die Folgen für Betroffene sind gravierend: Ruf und Psyche nehmen Schaden, während der Täter unverhohlen weitermacht.
Nicht immer liegt das Versagen allein bei der Plattform. Viele Meldungen durch Laien sind unvollständig oder unpräzise. Häufig fehlen z.B. Screenshots, URLs oder genaue Zeitangaben, um den Verstoß zu belegen. Mitunter wird auch die Rechtsverletzung falsch eingeordnet (etwa als „Beleidigung“ statt üble Nachrede), was der Plattform Angriffsfläche bietet, die Beschwerde abzulehnen. Auch Beweissicherung wird von Betroffenen oft zu spät oder lückenhaft betrieben. Diese Verfahrensfehler können dazu führen, dass eigentlich rechtswidrige Inhalte nicht gelöscht werden, weil die Beschwerde im Sande verläuft.
Sie müssen die Untätigkeit einer Plattform nicht hinnehmen. Im Gegenteil: Rechtlich gesehen darf die Plattform gar nicht untätig bleiben, sobald sie von einem klar rechtswidrigen Inhalt erfährt. Weigert sie sich dennoch, können wir sie haftbar machen. Gerichte betrachten das Stehenlassen gemeldeter, illegaler Posts als „rechtswidrige Duldung“ des Plattformbetreibers. Das eröffnet Betroffenen handfeste Rechtsmittel, um doch noch zum Ziel zu kommen, notfalls mit gerichtlicher Hilfe.
Sie stehen nicht alleine da: Wir unterstützen Sie dabei, Ihre Rechte gegenüber der Plattform durchzusetzen, souverän und mit Nachdruck. Unsere Kanzlei hat sich auf Fälle von Social-Media-Haftung spezialisiert und bietet folgende Leistungen an, um rechtswidrige Inhalte effektiv löschen zu lassen:
Wir formulieren Ihre Meldung an die Plattform juristisch präzise und vollständig. Jede Meldung enthält eine genaue Beschreibung des Inhalts, die konkrete Rechtsverletzung und die anwendbaren Gesetze. So sorgen wir dafür, dass der Plattformbetreiber konkrete Kenntnis vom Rechtsverstoß hat. Bereits durch ein solches anwaltliches Schreiben wird eine Reaktionspflicht der Plattform ausgelöst. Ausreden wie „wir wussten von nichts“ greifen dann nicht mehr.
Statt an generische Support-Formulare wenden wir uns direkt an die verantwortlichen Stellen der Plattform (Legal/Compliance-Abteilungen). In unserem Schreiben berufen wir uns ausdrücklich auf den DSA, das DDG und die einschlägigen Gesetze, und setzen eine kurze Frist. Erfahrungsgemäß reagieren Facebook, Twitter & Co. auf solche anwaltlichen Aufforderungen wesentlich schneller als auf normale Nutzermeldungen. Die Betreiber wissen: Ignorieren sie ein fundiertes Anwaltsschreiben, riskieren sie ein Gerichtsverfahren.
Bleibt die Plattform trotz anwaltlicher Meldung untätig, zögern wir nicht, den Schritt zum Gericht zu gehen. Wir setzen knappe Fristen – oft 24 bis 48 Stunden – und beantragen anschließend eine einstweilige Verfügung auf Löschung des Inhalts. Eine solche gerichtliche Eilverfügung kann binnen weniger Tage erwirkt werden und verpflichtet den Plattformbetreiber, den Post sofort zu entfernen (meist unter Androhung hoher Ordnungsgelder). Gerichte teilen unsere Sicht: Die fortgesetzte Veröffentlichung eines rechtswidrigen Inhalts trotz Hinweis werten sie als unzulässiges Verhalten der Plattform. Mit der einstweiligen Verfügung erzwingen wir effektiv die Löschung.
Parallel dazu bereiten wir, falls nötig, eine Unterlassungsklage vor, um sicherzustellen, dass die Inhalte auch langfristig nicht wieder erscheinen. Darüber hinaus prüfen wir Schadensersatzansprüche gegen die Plattform oder den Verursacher. Wenn z.B. durch einen beleidigenden Beitrag persönliche Daten preisgegeben wurden oder Ihr Ruf erheblich gelitten hat, kann eine finanzielle Entschädigung gerechtfertigt sein. Nach Art. 82 DSGVO haftet eine Plattform auf Schadenersatz, wenn sie personenbezogene Daten (etwa durch Nicht-Löschung eines rechtswidrigen Posts) nicht ausreichend schützt. Wir setzen diese Schadensersatzforderungen mit Nachdruck durch – sei es außergerichtlich oder vor Gericht.
Um Ihre Ansprüche erfolgreich durchzusetzen, sichern wir sämtliche Beweise professionell. Wir fertigen Screenshots, sichern URLs, Zeitstempel und – falls nötig – Quellcode-Auszüge und lassen diese notariell beglaubigen. So kann die Plattform vor Gericht nicht bestreiten, dass der Inhalt existiert(e). Diese forensische Dokumentation verschafft Ihnen einen entscheidenden Vorteil in jeder Auseinandersetzung.
Häufig stammen beleidigende oder verleumderische Inhalte von anonymen Accounts. Die Verfasser verstecken sich hinter Pseudonymen. Doch rechtlich muss man das nicht hinnehmen. Dank § 21 TDDDG (bis Mai 2024: § 21 TTDSG) gibt es einen Weg, die Identität solcher Angreifer aufzudecken. Dieses Gesetz (Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz) ermöglicht es, über einen gerichtlichen Beschluss die Herausgabe von Bestandsdaten eines Nutzers (z.B. Name, Adresse, E-Mail) vom Plattformbetreiber zu verlangen. So können wir beispielsweise ermitteln, wer hinter einem Fake-Profil auf Facebook steckt.
Der Auskunftsanspruch nach § 21 TDDDG ist an enge Voraussetzungen geknüpft. Die Plattform darf Nutzerdaten nur herausgeben, wenn der gemeldete Inhalt klar rechtswidrig und insbesondere strafrechtlich relevant ist. Ohne Straftatbestand keine Daten – eine bloße Beleidigung oder Schmähkritik muss also die Schwelle zur Strafbarkeit überschreiten (z.B. § 185 StGB Beleidigung, § 186 Üble Nachrede, § 187 Verleumdung), damit ein Gericht die Enttarnung anordnet. Rein zivilrechtliche Persönlichkeitsrechtsverletzungen ohne Bezug zu einem Strafgesetz genügen nur dann, wenn es sich um „audiovisuelle Inhalte“ handelt – also z.B. ein Video oder Tonaufnahme, nicht aber rein schriftliche Beiträge. Diese Differenzierung schützt die Meinungsfreiheit: Kritik und harte Worte bleiben anonym möglich, während strafbare Angriffe nicht hinter Pseudonymen verborgen bleiben sollen.
Erfüllt der Beitrag die Voraussetzungen, entscheidet das Gericht auf Antrag, dass der Anbieter die gespeicherten Daten des Nutzers herausgeben darf und muss. Wichtig: Herausgegeben werden dürfen nur Bestandsdaten wie Name, Anschrift, E-Mail oder Telefonnummer. Nutzungsdaten wie IP-Adressen oder Chat-Verläufe fallen nicht unter § 21 TDDDG. Das heißt, man erfährt zwar, wer den Account angemeldet hat, aber keine dynamischen Daten zur Online-Aktivität. Dennoch ist dieser Auskunftsanspruch ein wichtiger Hebel, um anonyme Täter zur Verantwortung zu ziehen. Haben wir einmal den Klarnamen, können wir direkt gegen die Person vorgehen – zivilrechtlich (Unterlassung, Schadensersatz) und gegebenenfalls auch strafrechtlich durch Strafanzeige.
Zu beachten ist, dass bei im Ausland sitzenden Plattformen besondere Hürden auftreten können (Stichwort internationale Zuständigkeit). Doch auch hier unterstützen wir Sie mit unserer Erfahrung: Gegebenenfalls stellen wir den Auskunftsantrag in dem Land, wo er erfolgversprechend ist, oder arbeiten mit dortigen Behörden zusammen. Unser Ziel bleibt, anonyme Angriffe online zu beenden, indem wir die Identität feststellen und den Täter aus der Deckung holen.
Wenn Plattformbetreiber ihrer Verantwortung nicht nachkommen, müssen Sie das als Betroffene:r nicht akzeptieren. Die Kombination aus DSA, Plattformhaftung und zivilrechtlichen Ansprüchen bietet ein robustes Instrumentarium, um digitale Rechtsverletzungen zu stoppen. Zivilrechtliche Rechtsdurchsetzung ist ein wichtiges Mittel, um im Ernstfall Ihre Ansprüche durchzusetzen, wenn Facebook, Twitter & Co. versagen. Wer sich allein auf die launenhaften internen Beschwerdeprozesse verlässt, verliert wertvolle Zeit – und riskiert, dass der angerichtete Schaden täglich größer wird.
Machen Sie sich bewusst: Plattformen sind keine neutralen Boten, sondern verantwortliche Intermediäre, die Gesetze einhalten müssen. Bleiben sie untätig, steht Ihnen der Rechtsweg offen. Wir setzen uns souverän und durchsetzungsstark dafür ein, dass rechtswidrige Inhalte gelöscht und Ihre Rechte gewahrt werden. Von der ersten Meldung bis zur letzten gerichtlichen Instanz begleiten wir Sie und verschaffen Ihnen Handlungssicherheit statt Ohnmacht.
Rechtswidrige Inhalte nach Art. 3 lit. h DSA sind solche, die gegen EU-Recht oder nationales Recht eines Mitgliedstaats verstoßen. Dazu zählen Beleidigungen, unbefugte Bildveröffentlichungen, Desinformation, illegaler Produktverkauf oder terroristische Inhalte.
Die Plattform muss ihre Entscheidung begründen und auf weitere Möglichkeiten hinweisen, etwa auf außergerichtliche Streitbeilegung (Art. 21 DSA) und sonstige Rechtsbehelfe.
Nutzersperrung bei wiederholten Missbrauch und Rechtsverstößen:
Gemäß Art. 23 DSA dürfen Online-Plattformen ihre Nutzenden zeitweise sperren, wenn diese wiederholt rechtswidrige Inhalte veröffentlichen oder das Melde- und Beschwerdesystem der Plattform missbräuchlich verwenden, z.B. durch das Melden von offensichtlich nicht rechtswidrigen Inhalten. Einer solchen Sperrung muss eine Verwarnung durch die Plattform vorausgehen, darf nur einzelfallbezogen erfolgen und muss insbesondere die Häufigkeit und das Ausmaß des fehlerhaftem Verhaltens berücksichtigen, etwa wie oft eine Person rechtswidrige Inhalte verbreitet oder unbegründete Meldungen einreicht, wie sich dieses Verhalten im Verhältnis zur gesamten Aktivität auf der Plattform darstellt, welche Folgen es hat und welche Absichten erkennbar sind. Plattformbetreiber sind zudem verpflichtet, in ihren Allgemeinen Geschäftsbedingungen darzulegen, wie sie mit solchen Fällen umgehen – einschließlich Beispielen für missbräuchliches Verhalten und Angaben zur Dauer möglicher Sperren.
Trusted Flagger (vertrauenswürdige Hinweisgeber) sind von Behörden oder Plattformen anerkannte Organisationen oder Personen, die besonders zuverlässige Meldungen über rechtswidrige Inhalte abgeben. Nach dem EU-Digital Services Act (DSA) müssen Anbieter von Online-Plattformen solchen Meldungen mit Vorrang nachgehen. Trusted Flagger sollen helfen, illegale Inhalte wie Hassrede, Betrug oder Urheberrechtsverletzungen schnell zu identifizieren und zu entfernen. Dadurch tragen sie zur effektiveren Durchsetzung der Plattformhaftung bei, ohne dass Nutzerrechte oder Meinungsfreiheit unverhältnismäßig eingeschränkt werden.
In Deutschland können vor allem staatliche Stellen, anerkannte NGOs oder spezialisierte zivilgesellschaftliche Organisationen als Trusted Flagger benannt werden. Zuständig für die Anerkennung ist die Koordinierungsstelle für digitale Dienste in der Bundesnetzagentur (BNetzA). Diese prüft, ob eine Organisation nachweislich über Fachwissen, Unabhängigkeit und eine verlässliche Meldungspraxis verfügt. Beispiele könnten etwa Verbraucherschutzverbände oder Institutionen sein, die sich auf Hassrede- oder Jugendschutzmeldungen spezialisiert haben.