Start Nachrichten Microsoft stellt den Maia 200 AI-Chip vor und behauptet damit einen Leistungsvorsprung...

Microsoft stellt den Maia 200 AI-Chip vor und behauptet damit einen Leistungsvorsprung gegenüber Amazon und Google

27
0
Microsoft stellt den Maia 200 AI-Chip vor und behauptet damit einen Leistungsvorsprung gegenüber Amazon und Google

Microsofts neuer Maia 200 AI-Chip. (Microsoft-Foto)

Das gab Microsoft am Montag bekannt Maia 200die zweite Generation seines benutzerdefinierten KI-Chips, und behauptet, es sei der leistungsstärkste Erstanbieter-Chip aller großen Cloud-Anbieter.

Das Unternehmen gibt an, dass Maia 200 bei bestimmten Benchmarks die dreifache Leistung des neuesten Trainium-Chips von Amazon liefert und bei anderen die neueste Tensor Processing Unit (TPU) von Google übertrifft.

Der Chip läuft bereits im Rechenzentrum von Microsoft in der Nähe von Des Moines, Iowa. Laut Microsoft unterstützt Maia 200 die GPT-5.2-Modelle von OpenAI, Microsoft 365 Copilot und interne Projekte seines Superintelligence-Teams. Als nächstes ist ein zweiter Einsatz in einem Rechenzentrum in der Nähe von Phoenix geplant.

Dies ist Teil des größeren Trends unter Cloud-Giganten, ihr eigenes maßgeschneidertes Silizium für KI zu bauen, anstatt sich ausschließlich auf Nvidia zu verlassen. Google war Verfeinerung seiner TPUs seit fast einem Jahrzehnt, und die Trainium-Linie von Amazon ist es mittlerweile in der dritten Generationein vierter ist bereits angekündigt.

Microsoft hat erstmals seine Ambitionen für maßgeschneiderte Chips bekannt gegeben Ende 2023als es Maia 100 auf seiner Ignite-Konferenz vorstellte. Obwohl Microsoft erst spät ins Rennen geht, vertritt Microsoft die Auffassung, dass die enge Integration zwischen Chips, KI-Modellen und Anwendungen wie Copilot ihm einen Vorteil verschafft.

Das Unternehmen gibt an, dass Maia 200 eine um 30 % bessere Leistung pro Dollar bietet als seine aktuelle Hardware. Maia 200 baut ebenfalls auf dem Chip der ersten Generation auf und konzentriert sich speziell auf Inferenz, den Prozess der Ausführung von KI-Modellen nach dem Training.

Der Chip-Wettbewerb zwischen den Cloud-Giganten hat sich verschärft, da die Kosten für den Betrieb von KI-Modellen immer wichtiger werden. Das Trainieren eines Modells ist ein einmaliger Aufwand, aber die Bereitstellung für Millionen von Benutzern ist ein großer laufender Aufwand. Alle drei Unternehmen wetten darauf, dass maßgeschneiderte Chips, die auf ihre eigenen Arbeitslasten abgestimmt sind, günstiger sein werden als der Kauf ausschließlich bei Nvidia.

Microsoft öffnet auch die Tür für externe Entwickler. Das Unternehmen kündigte ein Software-Entwicklungskit an, mit dem KI-Startups und Forscher ihre Modelle für Maia 200 optimieren können. Entwickler und Wissenschaftler können sich ab heute für eine frühe Vorschau anmelden.

Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein