14 / 234

KI wird teurer: Warum die günstigen Preise nicht ewig bleiben

TL;DR

KI-Nutzung ist heute so günstig wie nie – aber das dürfte nicht ewig so bleiben.

Key Points

  • Laut Writer-CEO May Habib werden LLM-Anbieter die Preise vor oder nach ihren Börsengängen anheben müssen.
  • OpenAI, Google und Anthropic haben ihre Modelle zuletzt schneller und günstiger gemacht – Token-Preise sind massiv gefallen.
  • Nvidia präsentiert voraussichtlich bald einen effizienteren Inference-Chip; der Fokus der Branche hat sich von Training auf Inference verschoben.
  • Das Muster erinnert an Amazon und Uber: erst Nutzer mit Niedrigpreisen binden, dann Margen ausbauen.

Nauti's Take

Das ist das älteste Playbook der Tech-Welt: Verluste als Marktanteil verbuchen und später die Rechnung präsentieren. Bei Uber hieß das Ende günstige Fahrten, bei Amazon Prime schleichende Preiserhöhungen.

Warum sollte KI anders laufen? Die aktuellen Token-Preise sind teilweise absurd günstig – GPT-4-Klasse-Intelligenz für Bruchteile eines Cents.

Das wird nicht bleiben. Wer jetzt skaliert und dabei annimmt, die Kostenstruktur bleibt stabil, baut auf Sand.

Nutze die günstigen Preise – aber plane für das Gegenteil.

Quellen