Der ChatGPT-Hersteller OpenAI nutzt die neu gewonnene Freiheit im Rahmen seiner neu ausgehandelten Microsoft-Partnerschaft und wird seine Cloud-Präsenz für das Training und den Betrieb von KI-Modellen auf der Infrastruktur von Amazon im Rahmen einer neuen siebenjährigen Vereinbarung über 38 Milliarden US-Dollar erweitern.
Der Deal, Montag angekündigtpositioniert Amazon als wichtigen Infrastrukturanbieter für Microsofts Flaggschiff-KI-Partner und unterstreicht die scheinbar unstillbare Nachfrage nach Rechenleistung und immer komplexere Allianzen zwischen großen Unternehmen, die aus KI Kapital schlagen wollen.
Microsoft, Amazon und große Technologieunternehmen versuchen, Anleger zu beruhigen, die sich zunehmend Sorgen über eine mögliche Blase bei den KI-Ausgaben und Infrastrukturinvestitionen machen.
Im Rahmen seines neuen Amazon-Vertrags soll OpenAI damit beginnen, KI-Workloads auf den neuen EC2 UltraServern von Amazon Web Services auszuführen, die Hunderttausende Nvidia-GPUs verwenden. Laut Amazon wird die Infrastruktur dabei helfen, ChatGPT auszuführen und zukünftige OpenAI-Modelle zu trainieren.
Die Amazon-Aktien stiegen im frühen Handel nach der Ankündigung um fast 5 %.
„Die Skalierung von Frontier AI erfordert umfangreiche, zuverlässige Rechenleistung“, sagte OpenAI-CEO Sam Altman in der Pressemitteilung zur Ankündigung des Deals. „Unsere Partnerschaft mit AWS stärkt das breite Rechenökosystem, das diese nächste Ära vorantreiben und fortschrittliche KI für alle zugänglich machen wird.“
Matt Garman, der CEO von AWS, sagte in der Pressemitteilung, dass die Cloud-Infrastruktur von Amazon als „Rückgrat“ für die Ambitionen von OpenAI dienen werde.
In ein Interview mit CNBCDave Brown, Amazons Vizepräsident für Computer- und maschinelle Lerndienste, sagte, die neue Vereinbarung stelle „völlig separate Kapazitäten“ dar, die AWS für OpenAI aufbaut. „Ein Teil dieser Kapazität ist bereits verfügbar, und OpenAI nutzt sie“, sagte Brown gegenüber CNBC.
Amazon hat außerdem seine Investitionen in die KI-Infrastruktur für Anthropic, das Konkurrenz-Startup hinter dem Chatbot Claude, verstärkt. Amazon hat insgesamt 8 Milliarden US-Dollar in Anthropic investiert und zugesagt und kürzlich das Project Rainier eröffnet, einen 11 Milliarden US-Dollar teuren Rechenzentrumskomplex für die Arbeitslasten von Anthropic, der auf Hunderttausenden seiner maßgeschneiderten Trainium 2-Chips läuft.
Microsoft hat seine eigene Beziehung zu Anthropic ausgebaut und die Claude-Modelle des Startups zu Microsoft 365 Copilot, GitHub Copilot und seiner Azure AI Foundry-Plattform hinzugefügt
Bisher hat sich OpenAI für die Computerinfrastruktur hinter seinen großen Sprachmodellen fast ausschließlich auf Microsoft Azure verlassen. Der neuer Deal Die letzte Woche von Microsoft und OpenAI angekündigte Änderung dieser Beziehung gibt OpenAI mehr Flexibilität bei der Nutzung anderer Cloud-Anbieter – und beseitigt damit das Vorkaufsrecht von Microsoft für neue OpenAI-Workloads.
Gleichzeitig verpflichtete sich OpenAI zum Kauf weiterer Microsoft-Dienste im Wert von 250 Milliarden US-Dollar. Microsoft hält bis 2032 weiterhin spezifische IP-Rechte an den Modellen und Produkten von OpenAI, einschließlich der exklusiven Fähigkeit großer Cloud-Plattformen, die Technologie von OpenAI über seinen Azure OpenAI Service anzubieten.
Der neue 38-Milliarden-Dollar-Deal von OpenAI mit Amazon baut auf einer Beziehung auf begann Anfang des Jahresals Amazon die ersten Open-Weight-Modelle von OpenAI seit fünf Jahren zu seinen Bedrock- und SageMaker-Diensten hinzufügte. Diese Modelle wurden unter einer Open-Source-Lizenz veröffentlicht und waren nicht an die exklusive API-Vereinbarung von OpenAI mit Microsoft gebunden, sodass Amazon sie auf seinen Plattformen anbieten konnte.
Die jüngste Ankündigung ist Teil einer Reihe von Deals, die OpenAI in den letzten Monaten mit Unternehmen abgeschlossen hat einschließlich Oracle Und Google – insgesamt Hunderte Milliarden Dollar für die KI-Rechenkapazität bereitstellen und Fragen über die langfristige Wirtschaftlichkeit des KI-Booms aufwerfen.


