2 / 154

DeepSeek V4 nutzt Blackwell SM100 und FP4 für billigere Skalierung und 1 Mio.-Token-Kontext

TL;DR

DeepSeek V4 rollt einen 1‑Mio.-Token-Kontext aus und nimmt zugleich neue Hardware mit Blackwell SM100 und FP4 ins Boot. Damit kann die KI größere Paper und Codebasen ohne vorzeitige Segmentierung durchdenken und auf kostengünstigerer Siliziumbasis skalieren. Für Teams, die jetzt noch mit kleineren Fenstern oder teuren Instanzen arbeiten, bedeutet das: weniger Pipeline-Klamauk, mehr Fokus auf Modell-Output.

Nauti's Take

Viel Kontext nützt nichts, wenn du am Ende die falsche Hardware fütterst. DeepSeek setzt jetzt auf SM100/FP4, was zeigt: echtes Skalieren heißt, den Token-Overhead runterzuziehen und eine deutlich günstigere Silizium-Combo zu fahren, statt einfach immer neue luxuriöse Instanzen zu starten.

Zusammenfassung

DeepSeek V4 rollt einen 1‑Mio.-Token-Kontext aus und nimmt zugleich neue Hardware mit Blackwell SM100 und FP4 ins Boot. Damit kann die KI größere Paper und Codebasen ohne vorzeitige Segmentierung durchdenken und auf kostengünstigerer Siliziumbasis skalieren.

Für Teams, die jetzt noch mit kleineren Fenstern oder teuren Instanzen arbeiten, bedeutet das: weniger Pipeline-Klamauk, mehr Fokus auf Modell-Output.

Video

Quellen