153 / 837

Clusterflock: Open-Source-KI-Orchestrator für verteilte Hardware

TL;DR

Clusterflock ist ein Open-Source-Orchestrator, der KI-Agenten über verteilte Hardware-Setups hinweg verwaltet – mit Fokus auf unterschiedliche VRAM- und RAM-Kapazitäten.

Key Points

  • Das Tool profiliert automatisch die verfügbare Netzwerkhardware und lädt passende Modelle von HuggingFace herunter – ohne manuelles Konfigurieren.
  • Über natives Parallelism via llama.cpp können mehrere kleinere Modelle gleichzeitig auf demselben Gerät laufen ('Tight Packing').
  • Der integrierte Mission Runner unterstützt Multi-Session- und asynchrone Ausführung – ideal für komplexe Agenten-Workflows.

Nauti's Take

Das ist genau die Art von Tooling, die der Self-Hosting-Community seit Langem fehlt. Cloud-Anbieter lösen das Deployment-Problem durch schlichtes Geldausgeben – Clusterflock löst es durch clevere Hardware-Profiling-Logik.

Ob das 'Tight Packing' in der Praxis so reibungslos funktioniert wie versprochen, wird die Community zeigen. Aber der Ansatz ist solide, und dass die Entwickler ihr eigenes Jucken kratzten, sieht man der Architektur an.

Hintergrund

Wer KI-Agenten auf eigener Hardware betreibt, kennt das Problem: Modelle manuell verteilen, VRAM-Limits jonglieren, Deployments koordinieren – das kostet Zeit und Nerven. Clusterflock adressiert genau diesen Engpass mit einem hardware-bewussten Ansatz, der sonst nur in Cloud-Umgebungen zu finden ist. Dass das Projekt vollständig Open-Source ist und llama.

cpp als Backend nutzt, macht es für Selbsthoster und kleine Teams besonders attraktiv.

Quellen