Selbst für das größte öffentliche Unternehmen und das wertvollste Start-up in der Geschichte war die Rechenzentren der künstlichen Intelligenz in dieser Woche zwischen Nvidia und OpenAi ein Blockbuster.
NVIDIA im Wert von 4,3 tn US -Dollar und versprach, die größte private Investition der Tech -Industrie in OpenAI zu machen und bis zu 100 Mrd. USD für die Finanzierung neuer Computerleistung auszugeben.
Als letzter verbleibender Gründerchef eines großen Technologieunternehmens aus vor der Dotcom-Ära nutzt Jensen Huang von Nvidia seine kommandierende Position im Silicon Valley wie nie zuvor, um sicherzustellen, dass der KI-Boom bleibt-und sein Chipmacher bleibt in seinem Zentrum.
«($ 100 Mrd.) ist eine große Zahl, aber wir sprechen von einem Unternehmen mit einem Marktwert von fast 4,5 TN», sagte Michael Cusumano, Professor für technologische Innovation und Unternehmertum an der Sloan School of Management von MIT. «Das ist auch beispiellos.»
Es kommt nach einem Wirbelwind großer Angebote von Nvidia, einschließlich der Investition von 5 Mrd. USD in seinen Rivalen Intel in der vergangenen Woche.
Trotz aller Superlative ließen die Ankündigung von Nvidia und OpenAI große Unsicherheiten über die vorgeschlagene Investition von 100 Mrd. USD.
Es ist unklar, wie schnell solche riesigen Einrichtungen gebaut werden könnten und wo die Unternehmen dann genug Energie sammeln können, um sie zu betreiben.
OpenAI plant, Chips von Nvidia als Teil des Geschäfts zu vermieten, nach Angaben von Menschen mit Kenntnis der Angelegenheit, aber Einzelheiten der Vereinbarung wurden nicht bekannt gegeben.
Die Entscheidung von NVIDIA, Geld in OpenAI zu pumpen, um den Bedarf an der Hardware des Chipmachers zu finanzieren, hat Bedenken hinsichtlich der Rundstruktur der Vereinbarung geäußert.
Trotzdem räumt die Analysten ein, dass die Investition von NVIDIA aus den schnell wachsenden Cashflows des Chipmachers finanziert werden kann – und wenn der Deal vollständig abgeschlossen wird, könnte das Geschäft für das Unternehmen Hunderte von Milliarden US -Dollar erzielen.
Es wird auch dazu beitragen, die Position von NVIDIA als unverzichtbarer Spieler in der Infrastruktur zu steigern, die KI -Modelle wie OpenAIs Chatgpt untermessen. Der Aktienkurs von NVIDIA ist seit dem Start der Chatbot Ende 2022 rund 1.000 Prozent gestiegen.
OpenAI hat jedoch kürzlich seine Halbleiter -Lieferkette diversifiziert und einen Vertrag mit Broadcom zur Herstellung von maßgefertigten Chips abgeschlossen.
Ein Senior Big Tech Executive sagte, dass der Deal Nvidias „Reliance“ zu OpenAI und Huangs Wunsch, „die Gefahr seines größten Kunden aufbaut, seinen eigenen Chip mit Broadcom aufzubauen“, hervorhebt.
Nvidia hat sich gegen einen solchen Vorschlag zurückversetzt und sagte, seine KI -Infrastruktur lieferte „eine beispiellose Kombination aus Leistung, Vielseitigkeit und Wert und steht jedem AI -Labor, jeder Cloud und jedem Unternehmen zur Verfügung“.
Die Beziehung zwischen Nvidia und OpenAI stammt aus dem Jahr 2016, als Huang ein Gerät lieferte, das er als „First AI Supercomputer die Welt, das jemals gemacht wurde“, dem AI -Labor bezeichnet hat, als es kaum ein Jahr alt war.
Neun Jahre später verhandelte Huang den Deal dieser Woche direkt mit Sam Altman, dem Mitbegründer und Geschäftsführer von OpenAI, aus, sagte eine mit der Angelegenheit vertraute Person.
Die beiden Gründer arbeiteten größtenteils ohne formelle Ratschläge der Banker, die normalerweise als Vermittler in solchen Geschäften fungieren würden, und setzte der Abkommen in der vergangenen Woche in Großbritannien während des Staatsbesuchs von Präsident Donald Trump den Schliff.
Die Rechenzentren – Huang hat sie als „KI -Fabriken“ bezeichnet – erlauben OpenAI, seine KI -Systeme zu schulen und Antworten zu produzieren und Kunden für die Ausgabe zu berechnen.
Huang hat angekündigt, dass für jeden 1 Gigawatt von AI -Infrastruktur eingesetzt wird, bis zu 50 Mrd. USD für die Computerhardware ausgegeben wird, einschließlich der speziellen Prozessoren von NVIDIA und seiner eigenen Netzwerktechnologie sowie der von Foxconn, HP, Dell und Super Micro produzierten Server -Racks.
«Dies sind gigantische Fabrikinvestitionen», sagte Huang bei einer Veranstaltung in Taiwan im Mai.
Das OpenAI -Angebot von NVIDIA erfordert, dass «mindestens» 10 -GW Rechenleistung über einen nicht näher bezeichneten Zeitraum erstellt werden. Die internationale Energieagentur schätzt, dass 10 GW der AI -Rechenzentren in einem Jahr so viel Energie verbrauchen würden wie 10 mn typische US -Haushalte.
Openai sagte, der Deal sei von den extravaganten Plänen für Stargate getrennt, die bereits angekündigt wurde. Das globale Infrastrukturprojekt mit Japans SoftBank und US Tech Group Oracle umfasst einen kürzlich von 300 Mrd. USD mit Oracle.
Morgan Stanley hat geschätzt, dass die Bereitstellung von 10 GW AI -Computerleistung bis zu 600 Mrd. USD kosten könnte, von denen 350 Mrd. USD „potenziell“ nach NVIDIA gehen.

Die Analysten von Morgan Stanley schrieben in einem Hinweis an die Kunden: «Das ist eine sehr große Anzahl, daher betrachten wir diese Investitionsniveau nicht als Gewissheit, sondern als Teil der Rahmung des längerfristigen Bullenfalles (für NVIDIA-Aktien).»
Dennoch wird die Investition das „Wettrüsten“ nur für die Entwicklung einer fortschrittlichen KI anfeuern, fügten die Analysten hinzu. «Der Umfang und der Umfang von OpenAI -Investitionen beginnen, alle Kollegen zu zwergen, aber der Wunsch, Geheimdienstberechnung aufzubauen, bleibt intensiv.»
OpenAI gab am Dienstag mit, dass es Vereinbarungen getroffen habe, fünf neue US -Rechenzentren zu entwickeln und die Kosten von Stargate auf etwa 400 Mrd. USD zu erhöhen.
«Unsere Vision ist einfach: Wir möchten eine Fabrik erstellen, die jede Woche eine Gigawatt neuer KI -Infrastruktur erzeugen kann», sagte Altman am Dienstag in einem Blog -Beitrag.
OpenAI konkurriert mit Google, Meta, Elon Musks XAI und Anthropic in den USA sowie mit chinesischen Rivalen wie Deepseek und Alibaba.
Ihr Infrastruktur -Wettrüsten wird trotz anhaltender Warnzeichen fortgesetzt, dass der riesige Kapitalaufwand der Branche die Einnahmen, die KI erzielt, weit übertroffen ist.
Ein Bericht von Consultancy Bain, der nur wenige Stunden nach der Bekanntgabe des Nvidia-Openai-Deals veröffentlicht wurde, müssen KI-Unternehmen pro Jahr 500 Mrd. USD für Kapitalinvestitionen ausgeben, um die erwartete Nachfrage bis 2030 zu befriedigen.
Die Finanzierung des riesigen Aufwands nachhaltig müsste 2 -Dollar -Einnahmen in Höhe von 2 TN erfordern.
Angesichts einer solchen Unsicherheit über die Renditen von AI wurde die Zukunft von OpenAI durch Fragen über die Gruppen getrübt, die sie ihre enormen Infrastrukturprojekte finanzieren würden.
Das 100 -Milliarden -Dollar -Versprechen von NVIDIA ist eine Möglichkeit, diese Fragen zu beantworten, das Kapital bereitzustellen, das in Schritten im Laufe der Konstruktion des Rechenzentrums erhält und es billiger macht, die Hunderte von Milliarden weiter zu finanzieren, die sie für seine Pläne ausführen müssen.
Altman sagte am Dienstag, er würde «darüber sprechen, wie wir finanzieren», OpenAIs Infrastrukturambitionen «später in diesem Jahr».
Der Deal ist ein „neues Finanzierungsmodell … wo wir im Laufe der Zeit bezahlen können, anstatt sie im Voraus zu kaufen“, fügte er hinzu. «Die Chips und Systeme sind ein humorvoller (Prozentsatz) der Kosten und es ist schwierig, das im Voraus zu bezahlen.»
Mit mehr als 700 Mio. Personen, die jede Woche ChatGPT verwenden, haben OpenAI -Führungskräfte seit Monaten privat gesagt, dass sie bereits von der Berechnung ausgehungert sind, die sie benötigen, um ein so komplexes Produkt massiv zu liefern.
Altman setzt darauf, dass „Innovation zunehmend durch den Zugang zu Infrastruktur anstelle von Ideen geschaltet wird“, sagte Dimitri Zabelin, AI -Analyst bei Pitchbook, der Risikokapitalgeschäfte verfolgt.
Huangs Schritt, um sicherzustellen, dass Nvidia „bevorzugte strategische Rechen- und Networking -Partner“ von OpenAI ist, wird es für KI -Entwickler schwieriger erschweren, zu konkurrierenden Prozessoren zu wechseln.
Die CUDA -Softwareplattform von NVIDIA, die die Standardmethode für das Schreiben der KI -Software, die auf ihren Chips ausgeführt wird, geworden ist, trägt zum Griff des Unternehmens in der Branche bei.
Der Deal kommt zu einer Zeit, in der viele der größten Kunden des Chipmachers – einschließlich Google, Meta, Amazon und Microsoft – als Alternative zu NVIDIA ihre eigenen benutzerdefinierten Prozessoren entwickeln.
Cusumano vergleicht die Verwendung von CUDA durch Nvidia, um seine Dominanz auf die Art und Weise zu erweitern, wie Microsoft und Apple die Tools verschenkt, die zum Erstellen von Apps für ihre Windows- und iOS -Betriebssysteme erstellt werden müssen, sodass ihre Plattformen die Personalcomputer- und Smartphone -Epochen dominieren können.
«Der Unterschied zu Nvidia ist, dass es so ist, als würde man Microsoft und Intel auf ihrem Höhepunkt in ein Unternehmen kombinieren», sagte er. «Es ist wie ein Medikament – Softwareentwickler werden die Tools von NVIDIA verwenden und sie müssen Hardware (NVIDIA) verwenden.»
Huang hat eine Strategie fortgesetzt, die 2016 direkt auf diese erste Supercomputer -Lieferung in ein junges AI -Labor zurückgeführt werden kann.
Huangs Investitionen in OpenAI-sowie Dutzende anderer Start-ups, die an KI-Anwendungen, Cloud Computing, Robotik und Gesundheitswesen beteiligt sind, werden sich Cusumano fügte hinzu, indem sie KI-Entwickler an seinem Produkt in Verbindung bringen, und die Investitionen in Openai und Dutzende anderer Start-ups.
Zusätzliche Berichterstattung von Michael Acton in San Francisco