Sandflare: KI-Agenten-VMs in ~300ms starten – mit echter VM-Isolation
TL;DR
Sandflare startet Firecracker-MicroVMs für KI-Agenten in rund 300ms Cold-Start – deutlich schneller als klassische VMs (5–10s), aber mit echter VM-Isolation statt geteiltem Kernel wie bei Docker.
Key Points
- Der Entwickler baute das Tool, weil er LLM-generierten Code in Produktion ausführen wollte und keine bestehende Lösung seine Anforderungen erfüllte.
- Inklusive: managed Postgres, das per Single-Call in eine Sandbox eingebunden wird – weil fast jeder Agent persistenten State braucht.
- Aktueller Flaschenhals auf dem Weg zu unter 100ms: Firecracker-API plus Netzwerk-Setup. Der Entwickler sucht aktiv Input von Leuten, die Firecracker weiter optimiert haben.
- Vergleichbare Tools: E2B, Modal, Daytona – Sandflare setzt auf einfacheres Pricing und integriertes Postgres als Differenzierung.
Nauti's Take
Sandflare ist ein Einzelprojekt auf Hacker News mit einem Upvote und null Kommentaren – also noch früh. Aber die Problemformulierung ist präzise und ehrlich: Docker-Kernel-Sharing ist für nicht vertrauenswürdigen Code ein echtes Risiko, und 5-Sekunden-VM-Boots killen die UX für synchrone Agenten-Workflows.
Was hier interessant ist: Der Entwickler baut nicht nur ein weiteres Sandbox-Tool, sondern fragt öffentlich nach Firecracker-Optimierungen – das deutet auf echte technische Tiefe statt Marketing-Demo. Ob Sandflare gegen E2B und Modal bestehen kann, hängt davon ab, ob 'batteries-included Postgres' und einfacheres Pricing genug Differenzierung sind.
Im Zweifel gewinnt das Tool, das Entwickler am wenigsten zum Nachdenken zwingt.
Hintergrund
LLM-generierter Code in Produktion auszuführen ist ein echtes Sicherheitsproblem – und die Tooling-Lücke zwischen 'zu langsam' und 'zu unsicher' ist real. Firecracker, ursprünglich von AWS für Lambda und Fargate entwickelt, bietet hier einen soliden Mittelweg. Dass jemand darauf ein Produkt mit inkludierter Datenbank und klarem Pricing baut, zeigt, wo der Markt für Agenteninfrastruktur gerade hinwächst: weg von Bastelei, hin zu verwalteten Primitiven.
Die 100ms-Grenze ist nicht nur technisch interessant – darunter fühlt sich ein VM-Start für Nutzer wie eine API-Antwort an.