Nvidia Groq 3: Die Ära der KI-Inferenz hat (wahrscheinlich) begonnen
TL;DR
Nvidia-CEO Jensen Huang hat auf der GTC-Konferenz in San Jose (30.000+ Besucher) die Vera-Rubin-Chip-Generation vorgestellt – Nvidias erster Chip, der explizit für KI-Inferenz ausgelegt ist.
Key Points
- Technologische Basis: Das Nvidia Groq 3 LPU (Language Processing Unit) nutzt IP, das Nvidia zu Weihnachten 2024 für 20 Milliarden US-Dollar vom Start-up Groq lizenziert hat.
- Huang erklärte den Moment zum Wendepunkt: KI müsse jetzt 'denken' und 'handeln' – beides erfordere Inferenz, nicht Training.
- Training und Inferenz stellen fundamental unterschiedliche Anforderungen an Hardware; bisher optimierte Nvidia primär für Training.
Nauti's Take
Nvidia kauft sich für 20 Milliarden Dollar in die Inferenz-Welt ein und nennt das Ergebnis 'Groq 3' – ein cleverer Schachzug, der gleichzeitig den gefährlichsten Konkurrenten neutralisiert und eigene Schwäche eingesteht. Wer sein Kerngeschäft jahrelang auf Training-GPUs aufgebaut hat, braucht offenbar externe IP, um für die nächste Phase gerüstet zu sein.
Huangs Rhetorik ('KI muss jetzt denken') klingt nach Marketing-Zündstoff, trifft aber einen echten Nerv: Der Markt für Inferenz-Hardware ist gigantisch und bisher vergleichsweise unbesetzt von Nvidia. Die eigentliche Frage ist nicht ob, sondern wie schnell die Konkurrenz – AMD, Intel, Groq selbst als eigenständiger Player – antwortet.