Metas Eigenentwicklung: Vier neue MTIA-Chip-Generationen in zwei Jahren
TL;DR
Meta setzt weiter auf eigene KI-Chips: Die MTIA-Reihe (Meta Training and Inference Accelerator) bleibt zentrales Element der KI-Infrastruktur-Strategie.
Key Points
- In den nächsten zwei Jahren sind vier neue MTIA-Chip-Generationen geplant – ein ungewöhnlich dichtes Entwicklungstempo.
- Meta reduziert damit die Abhängigkeit von Nvidia-GPUs für eigene KI-Workloads wie Ranking, Recommendation und Inferenz.
- Die Chips werden nicht verkauft, sondern ausschließlich intern in Metas Rechenzentren eingesetzt.
Nauti's Take
Vier neue MTIA-Generationen in 24 Monaten klingt beeindruckend – aber Meta hat in der Vergangenheit bei Custom Silicon schon öfter große Ankündigungen gemacht, ohne dass viele Details nach außen drangen. Was fehlt: konkrete Leistungsdaten, Vergleiche mit aktuellen Nvidia-Chips oder Zahlen zur tatsächlichen Lastverteilung in Metas Infrastruktur.
Das ist klassisches PR-Framing rund um ein Investor-Day-Thema. Trotzdem ist die Richtung klar: Wer Llama-Modelle in diesem Umfang betreibt, braucht eigene Hardware – und Meta ist spät gestartet, holt aber mit Nachdruck auf.