Claude-Code-Leak deutet auf 'Proactive Mode' für autonomes Coden hin
TL;DR
Ein Routine-Update von Claude Code (Version 2.1.88) enthielt versehentlich den kompletten Quellcode der App – über 512.000 Zeilen TypeScript in 2.000 Dateien.
Key Points
- Bevor Anthropic reagieren konnte, wurde der Code auf GitHub hochgeladen und mehr als 50.000 Mal geforkt – damit hatten auch Wettbewerber vollen Einblick.
- Im geleakten Code fanden Nutzer einen Flag für einen 'Proactive Mode': Claude Code soll demnach selbstständig arbeiten, auch wenn der Nutzer gerade nicht aktiv ist.
- KI-Startup-Gründer Alex Finn entdeckte das Feature auf X und machte es publik – Anthropic hat sich bisher nicht offiziell dazu geäußert.
Nauti's Take
Anthropic baut gerade ein der meistgenutzten KI-Coding-Tools der Welt – und hat dessen kompletten Quellcode durch ein schludriges Update ins Netz gestellt. Das ist kein kleiner Fauxpas, sondern ein handfester Sicherheitsvorfall, der zeigen sollte: auch die besten KI-Labs haben klassische Software-Engineering-Probleme.
Der 'Proactive Mode' klingt mächtig, wirft aber sofort die Frage auf, wie viel Kontrolle Nutzer wirklich abgeben wollen – und wie Anthropic verhindern will, dass ein autonom arbeitendes Claude Code mehr Schaden anrichtet als nützt. Die 50.000 Forks auf GitHub sind ein Denkzettel, der lange nachhallen wird.
Hintergrund
Der Leak ist mehr als ein peinlicher Unfall: Er zeigt, wie dünn die Linie zwischen internem Entwicklungsstand und öffentlicher Sichtbarkeit bei großen KI-Anbietern ist. Ein 'Proactive Mode' würde Claude Code fundamental verändern – weg vom reaktiven Assistenten, hin zu einem autonomen Agenten, der ohne menschlichen Impuls handelt. Das ist ein direkter Schritt in Richtung der vieldiskutierten 'agentic AI', bei der Sicherheits- und Kontrollfragen noch weitgehend ungelöst sind.
Für Anthropics Wettbewerber ist der Einblick in 512.000 Zeilen Produktionscode ein unfreiwilliges Geschenk.