Microsoft gibt an, riesige Rechenzentren in Wisconsin und Atlanta – etwa 700 Meilen und fünf Bundesstaaten voneinander entfernt – über ein Hochgeschwindigkeits-Glasfasernetzwerk miteinander verbunden zu haben, um als einheitliches System zu funktionieren.
Der Ankündigung am Mittwochmorgen markiert das Debüt dessen, was das Unternehmen seine KI-„Superfabrik“ nennt, einer neuen Klasse von Rechenzentren, die speziell für künstliche Intelligenz gebaut wurden. Die Einrichtungen sind darauf ausgelegt, fortschrittliche KI-Modelle an verbundenen Standorten zu trainieren und auszuführen – eine Einrichtung, die Microsoft als die weltweit erste „KI-Superfabrik im Planetenmaßstab“ bezeichnet.
Im Gegensatz zu herkömmlichen Cloud-Rechenzentren, in denen Millionen separater Anwendungen für verschiedene Kunden ausgeführt werden, sind die neuen Einrichtungen laut Microsoft darauf ausgelegt, einzelne, massive KI-Arbeitslasten über mehrere Standorte hinweg zu bewältigen. Jedes Rechenzentrum beherbergt Hunderttausende Nvidia-GPUs, die über eine Hochgeschwindigkeitsarchitektur namens AI Wide Area Network (AI-WAN) verbunden sind, um Rechenaufgaben in Echtzeit zu teilen.
Microsoft sagt, dass es ein neues zweistöckiges Rechenzentrumsdesign verwendet, um GPUs dichter zu packen und die Latenz zu minimieren, eine Strategie, die teilweise durch ein geschlossenes Flüssigkeitskühlsystem ermöglicht wird.
Durch die Verknüpfung von Standorten über Regionen hinweg ist das Unternehmen nach eigenen Angaben in der Lage, Rechenkapazitäten zu bündeln, Arbeitslasten dynamisch umzuleiten und den enormen Strombedarf über das Netz zu verteilen, sodass es nicht von den verfügbaren Energieressourcen in einem Teil des Landes abhängig ist.
Dieser einheitliche Supercomputer wird die nächste Generation von KI-Modellen für wichtige Partner wie OpenAI, Frankreichs Mistral AI und xAI sowie für Microsofts eigene interne Modelle trainieren und ausführen.
Der neue Ansatz zeigt das rasante Tempo des Wettlaufs um die KI-Infrastruktur unter den größten Technologieunternehmen der Welt. Microsoft hat im letzten Quartal mehr als 34 Milliarden US-Dollar für Investitionen ausgegeben – einen Großteil davon für Rechenzentren und GPUs –, um mit der seiner Meinung nach steigenden KI-Nachfrage Schritt zu halten.
Einen ähnlichen Ansatz verfolgt Amazon mit sein neuer Projekt-Rainier-Komplex in Indiana, eine Ansammlung von sieben Rechenzentrumsgebäuden auf einer Fläche von mehr als 1.200 Hektar. Meta, Google, OpenAI und Anthropic gehen ähnliche Multimilliarden-Dollar-Wetten ein und stecken gemeinsam Hunderte von Milliarden in neue Einrichtungen, Chips und Systeme, um KI-Modelle zu trainieren und einzusetzen.
Einige Analysten und Investoren sehen in der Eile, eine KI-Infrastruktur aufzubauen, Anklänge an eine Technologieblase, wenn Geschäftskunden in naher Zukunft nicht genügend Nutzen aus der KI ziehen. Microsoft, Amazon und andere sagen, die Nachfrage sei real und nicht spekulativ und verweisen auf langfristige Verträge als Beweis.


