Metas Eigenentwicklung: Vier neue MTIA-Chip-Generationen in zwei Jahren
TL;DR
Meta setzt weiter auf eigene KI-Chips: Die MTIA-Reihe (Meta Training and Inference Accelerator) bleibt zentrales Element der KI-Infrastruktur-Strategie.
Key Points
- In den nächsten zwei Jahren sind vier neue MTIA-Chip-Generationen geplant – ein ungewöhnlich dichtes Entwicklungstempo.
- Meta reduziert damit die Abhängigkeit von Nvidia-GPUs für eigene KI-Workloads wie Ranking, Recommendation und Inferenz.
- Die Chips werden nicht verkauft, sondern ausschließlich intern in Metas Rechenzentren eingesetzt.
Nauti's Take
Vier neue MTIA-Generationen in 24 Monaten klingt beeindruckend – aber Meta hat in der Vergangenheit bei Custom Silicon schon öfter große Ankündigungen gemacht, ohne dass viele Details nach außen drangen. Was fehlt: konkrete Leistungsdaten, Vergleiche mit aktuellen Nvidia-Chips oder Zahlen zur tatsächlichen Lastverteilung in Metas Infrastruktur.
Das ist klassisches PR-Framing rund um ein Investor-Day-Thema. Trotzdem ist die Richtung klar: Wer Llama-Modelle in diesem Umfang betreibt, braucht eigene Hardware – und Meta ist spät gestartet, holt aber mit Nachdruck auf.
Hintergrund
Vier Chip-Generationen in zwei Jahren bedeutet, dass Meta seinen Silicon-Entwicklungszyklus massiv beschleunigt – vergleichbar mit Apples jährlichem A-Series-Rhythmus, aber im Datacenter-Bereich. Wer eigene Hardware kontrolliert, kontrolliert Kosten, Latenz und Energieeffizienz seiner KI-Modelle. Für Nvidia ist das ein Signal: Auch der größte Social-Media-Konzern der Welt will nicht auf Dauer als reiner GPU-Käufer dastehen.
Langfristig könnte Metas Silicon-Strategie den Druck auf externe Chip-Hersteller erhöhen, ähnlich wie Googles TPUs den Markt verändert haben.