3 / 396

Show HN: Reduce LLM token use by ~30% with this MCP/CLI tool(Claude benchmarked)

TL;DR

Tilth, eine MCP/CLI, lässt ripgrep, tree-sitter und cat mit einem gemeinsamen Gehirn KI-Code lesen und ersetzt mühselige Section-Calls durch adaptive Suche. V0.4.4 ergänzt eine automatische 2nd-Hop-Impact-Analyse bei Funktionen mit maximal zehn Callern, liefert erstmals eine komplette 26-Task-Opus-Baseline und kippt Haiku von 42 auf 78 Prozent Adoption, sodass es 38 % weniger Dollar pro richtiger Antwort kostet. V0.4.5 hebt das TOKEN_THRESHOLD von 3500 auf 6000 Token und liefert mittlere Dateien komplett, statt sie auf Sections zu zwingen, und behebt gin_radix_tree/rg_search_dispatch-Regressionen. Damit erreicht Sonnet 100 Prozent Accuracy und 34 % günstigere Kosten pro korrekter Antwort, was einen konkreten Token- und Cash-Vorteil für KI-Agenten schafft.

Nauti's Take

Tilth trennt Token-Politik von Ratenlimit; adaptive zweite Hops plus 6k-Token-Views verhindern, dass Agenten Dokumente mehrfach mit --section abfragen. Wenn du KI-Agenten baust, miss nicht nur Accuracy, sondern genau dieses Token-Delta, sonst läuft Haiku weiter ins Minus.

Quellen