KI-Firma Anthropic zahlt 1,5 Milliarden Dollar an Autoren – Vergleich nach Urheberrechtsklage um KI-Training mit Raubkopien

Das US-KI-Unternehmen Anthropic muss nach einer Sammelklage wegen Urheberrechtsverletzungen 1,5 Milliarden US-Dollar an betroffene Autorinnen und Autoren zahlen. Hintergrund ist die massenhafte Nutzung illegal beschaffter Bücher zum Training großer KI-Sprachmodelle, wie die Autorenorganisation Authors Guild und zahlreiche Medien berichten.

von Olivia Wykretowicz

Literatur als Trainingsgrundlage für KI – und Auslöser eines Milliardenvergleichs

Vergleich: 3.000 Dollar pro betroffenes Werk

Der Vergleich sieht für rund 500.000 betroffene Bücher eine pauschale Entschädigung von je 3.000 US-Dollar vor. Autorinnen und Autoren, die mit mehreren Werken betroffen sind, können entsprechend mehrfach Ansprüche stellen. Die Summe ist die höchste, die bislang in den USA im Zusammenhang mit einer Urheberrechtsverletzung gezahlt wurde und sie ist zugleich am unteren Ende des Möglichen, denn bei massenhaften Rechtsverstößen sind die Schadensersatzsummen oft deutlich niedriger als die gesetzlich möglichen Werte.

Raubkopien als Trainingsmaterial: Präzedenzfall im KI-Recht

Der Fall geht auf den Vorwurf zurück, dass Anthropic Millionen von urheberrechtlich geschützten Büchern aus Pirateriequellen wie Library Genesis (LibGen) und PiLiMi heruntergeladen und zum Training seines KI-Modells Claude genutzt hatte. Ein Bundesgericht in San Francisco hatte zuvor entschieden, dass nur die Nutzung rechtmäßig erworbener Werke vom US-Fair-Use-Prinzip gedeckt ist. Die Verwendung illegal beschaffter Daten für KI-Training gilt eindeutig als Urheberrechtsverletzung. Eine „Napster-ähnliche Piraterie“, wie es das Gericht formulierte.

Anthropic verpflichtet sich im Zuge des Vergleichs, die illegal kopierten Inhalte sowie eventuelle Kopien definitiv zu löschen und künftig nur mit legalen, lizenzierten Trainingsdaten zu arbeiten. Die Einigung muss noch final gerichtlich bestätigt werden.

Auswirkungen auf die Branche

Die Einigung ist der erste große Vergleich in einer Welle von Sammelklagen gegen KI-Unternehmen wie Meta, OpenAI und Microsoft, denen ebenfalls die Nutzung urheberrechtlich geschützter Werke beim KI-Training vorgeworfen wird. Die Branche setzt mittlerweile zunehmend auf legale Quellen für Trainingsdaten, um Prozesse und Milliardenforderungen zu vermeiden.

Gleichzeitig hat Anthropic erst kürzlich eine neue Finanzierungsrunde abgeschlossen und seine Bewertung auf stattliche 183 Milliarden Dollar gesteigert. Da fallen 1,5 Milliarden Dollar kaum ins Gewicht. Dennoch gilt der Vergleich als richtungsweisend: Die massenhafte Verwendung illegaler Inhalte im KI-Training bleibt nicht folgenlos, und betroffene Rechteinhaber können entschädigt werden.

Auch wenn die Summe pro Autor eher gering ausfällt: Die juristische Klärung zeigt, dass Fair Use Grenzen hat und Urheberrecht auch im Kontext von KI und Datensammlung gilt. Weitere Klagen und Richtungsentscheidungen sind für die Branche in Sicht.

Unsere Rechtsberatung umfasst auch das KI Recht.

Zurück zur Newsübersicht