Millionen Bücher ohne Erlaubnis: Wie Anthropic Claude mit Raubkopien trainierte
TL;DR
Anthropic nutzte Millionen urheberrechtlich geschützter E-Books aus Schattenbibliotheken wie Books3 und LibGen zum Training von Claude – ohne Zustimmung von Verlagen oder Autoren.
Key Points
- Das Unternehmen beruft sich auf Fair Use, während Verlage und Schriftsteller auf Lizenzmodelle für KI-Training klagen
- Der Vergecast analysiert die rechtlichen und ethischen Grauzonen zwischen Forschung und kommerzieller Ausbeutung
- Auch OpenAI, Meta und Google verwenden ähnliche Methoden – die Frage nach fairer Vergütung bleibt branchenweit ungelöst
- Der Fall könnte die Kosten für KI-Training massiv erhöhen, wenn Gerichte die Fair-Use-Argumentation ablehnen
Nauti's Take
Anthropic verkauft sich gerne als die Guten im KI-Rennen – mit Ethik-Board und Constitutional AI. Doch wenn's drauf ankommt, greifen auch sie in die Raubkopie-Kiste.
Fair Use als Blanko-Vollmacht für Milliarden-Dollar-Firmen zu interpretieren, ist dreist. Verlage und Autoren haben recht: Wer mit fremden Werken Geld verdient, soll zahlen.
Dass ausgerechnet Claude, das Vorzeige-Modell für "sichere KI", auf Diebesgut trainiert wurde, ist die Ironie des Jahres.
Hintergrund
Claude gilt als eines der fortschrittlichsten Sprachmodelle – doch sein Vorsprung basiert auf fragwürdigem Fundament. Wenn führende KI-Firmen systematisch Urheberrechte ignorieren, könnte das die gesamte Content-Industrie destabilisieren. Gleichzeitig zeigt der Fall, wie schwer es ist, KI-Entwicklung mit bestehendem Recht in Einklang zu bringen.
Die Debatte entscheidet, wer in Zukunft von kreativen Werken profitiert – Urheber oder Tech-Konzerne.