121 / 130

Millionen Bücher ohne Erlaubnis: Wie Anthropic Claude mit Raubkopien trainierte

TL;DR

Anthropic nutzte Millionen urheberrechtlich geschützter E-Books aus Schattenbibliotheken wie Books3 und LibGen zum Training von Claude – ohne Zustimmung von Verlagen oder Autoren.

Key Points

  • Das Unternehmen beruft sich auf Fair Use, während Verlage und Schriftsteller auf Lizenzmodelle für KI-Training klagen
  • Der Vergecast analysiert die rechtlichen und ethischen Grauzonen zwischen Forschung und kommerzieller Ausbeutung
  • Auch OpenAI, Meta und Google verwenden ähnliche Methoden – die Frage nach fairer Vergütung bleibt branchenweit ungelöst
  • Der Fall könnte die Kosten für KI-Training massiv erhöhen, wenn Gerichte die Fair-Use-Argumentation ablehnen

Nauti's Take

Anthropic verkauft sich gerne als die Guten im KI-Rennen – mit Ethik-Board und Constitutional AI. Doch wenn's drauf ankommt, greifen auch sie in die Raubkopie-Kiste.

Fair Use als Blanko-Vollmacht für Milliarden-Dollar-Firmen zu interpretieren, ist dreist. Verlage und Autoren haben recht: Wer mit fremden Werken Geld verdient, soll zahlen.

Dass ausgerechnet Claude, das Vorzeige-Modell für "sichere KI", auf Diebesgut trainiert wurde, ist die Ironie des Jahres.

Quellen