3 / 331

Nvidia Groq 3: Die Ära der KI-Inferenz hat (wahrscheinlich) begonnen

TL;DR

Nvidia-CEO Jensen Huang hat auf der GTC-Konferenz in San Jose (30.000+ Besucher) die Vera-Rubin-Chip-Generation vorgestellt – Nvidias erster Chip, der explizit für KI-Inferenz ausgelegt ist.

Key Points

  • Technologische Basis: Das Nvidia Groq 3 LPU (Language Processing Unit) nutzt IP, das Nvidia zu Weihnachten 2024 für 20 Milliarden US-Dollar vom Start-up Groq lizenziert hat.
  • Huang erklärte den Moment zum Wendepunkt: KI müsse jetzt 'denken' und 'handeln' – beides erfordere Inferenz, nicht Training.
  • Training und Inferenz stellen fundamental unterschiedliche Anforderungen an Hardware; bisher optimierte Nvidia primär für Training.

Nauti's Take

Nvidia kauft sich für 20 Milliarden Dollar in die Inferenz-Welt ein und nennt das Ergebnis 'Groq 3' – ein cleverer Schachzug, der gleichzeitig den gefährlichsten Konkurrenten neutralisiert und eigene Schwäche eingesteht. Wer sein Kerngeschäft jahrelang auf Training-GPUs aufgebaut hat, braucht offenbar externe IP, um für die nächste Phase gerüstet zu sein.

Huangs Rhetorik ('KI muss jetzt denken') klingt nach Marketing-Zündstoff, trifft aber einen echten Nerv: Der Markt für Inferenz-Hardware ist gigantisch und bisher vergleichsweise unbesetzt von Nvidia. Die eigentliche Frage ist nicht ob, sondern wie schnell die Konkurrenz – AMD, Intel, Groq selbst als eigenständiger Player – antwortet.

Quellen