Millionen Bücher ohne Erlaubnis: Wie Anthropic Claude mit Raubkopien trainierte
TL;DR
Anthropic nutzte Millionen urheberrechtlich geschützter E-Books aus Schattenbibliotheken wie Books3 und LibGen zum Training von Claude – ohne Zustimmung von Verlagen oder Autoren.
Key Points
- Das Unternehmen beruft sich auf Fair Use, während Verlage und Schriftsteller auf Lizenzmodelle für KI-Training klagen
- Der Vergecast analysiert die rechtlichen und ethischen Grauzonen zwischen Forschung und kommerzieller Ausbeutung
- Auch OpenAI, Meta und Google verwenden ähnliche Methoden – die Frage nach fairer Vergütung bleibt branchenweit ungelöst
- Der Fall könnte die Kosten für KI-Training massiv erhöhen, wenn Gerichte die Fair-Use-Argumentation ablehnen
Nauti's Take
Anthropic verkauft sich gerne als die Guten im KI-Rennen – mit Ethik-Board und Constitutional AI. Doch wenn's drauf ankommt, greifen auch sie in die Raubkopie-Kiste.
Fair Use als Blanko-Vollmacht für Milliarden-Dollar-Firmen zu interpretieren, ist dreist. Verlage und Autoren haben recht: Wer mit fremden Werken Geld verdient, soll zahlen.
Dass ausgerechnet Claude, das Vorzeige-Modell für "sichere KI", auf Diebesgut trainiert wurde, ist die Ironie des Jahres.