KI wird teurer: Warum die günstigen Preise nicht ewig bleiben
TL;DR
KI-Nutzung ist heute so günstig wie nie – aber das dürfte nicht ewig so bleiben.
Key Points
- Laut Writer-CEO May Habib werden LLM-Anbieter die Preise vor oder nach ihren Börsengängen anheben müssen.
- OpenAI, Google und Anthropic haben ihre Modelle zuletzt schneller und günstiger gemacht – Token-Preise sind massiv gefallen.
- Nvidia präsentiert voraussichtlich bald einen effizienteren Inference-Chip; der Fokus der Branche hat sich von Training auf Inference verschoben.
- Das Muster erinnert an Amazon und Uber: erst Nutzer mit Niedrigpreisen binden, dann Margen ausbauen.
Nauti's Take
Das ist das älteste Playbook der Tech-Welt: Verluste als Marktanteil verbuchen und später die Rechnung präsentieren. Bei Uber hieß das Ende günstige Fahrten, bei Amazon Prime schleichende Preiserhöhungen.
Warum sollte KI anders laufen? Die aktuellen Token-Preise sind teilweise absurd günstig – GPT-4-Klasse-Intelligenz für Bruchteile eines Cents.
Das wird nicht bleiben. Wer jetzt skaliert und dabei annimmt, die Kostenstruktur bleibt stabil, baut auf Sand.
Nutze die günstigen Preise – aber plane für das Gegenteil.