1 / 1395

Deine nächste AI-Anfrage läuft dort, wo gerade Strom fließt

TL;DR

Stromhungrige Datacenter zwingen die AI-Industrie zum Umdenken. Nvidia baut zusammen mit InfraPartners, Prologis und EPRI rund 25 Micro-Datacenter (5–20 MW) direkt neben Umspannwerken bei fünf US-Versorgern. Der Trick: Compute wandert automatisch dorthin, wo gerade Strom übrig ist – fällt ein Umspannwerk aus oder ist überlastet, übernimmt ein anderes Datacenter mit freier Kapazität. So verteilt sich die AI-Last über das Netz, statt es punktuell zu sprengen.

Nauti's Take

Spannender Ansatz: Statt Mega-Datacenter verteilt Nvidia AI-Workloads auf 25 kleine Standorte direkt am Stromnetz – das nimmt Druck aus überlasteten Knoten und macht das Netz robuster. Der Haken: 5–20 MW pro Standort bleiben ein massiver Eingriff, und 'shiftbarer Compute' funktioniert nur für Batch- oder Training-Loads, nicht für Echtzeit-Inference.

Für Versorger und Hyperscaler ein vielversprechendes Pilot-Modell; wer schnelle Antwortzeiten braucht, sollte zweimal hinschauen.

Quellen