Mit einer 500 Milliarden Dollar schweren Investition bekommt Open AI voraussichtlich die Rechenzentren, um im hart umkämpften KI-Markt zu bestehen. Aber KI-Modelle aus China sind mit viel weniger Rechenleistung schon jetzt erfolgreich.
Donald Trump gab am Dienstag mit der Ankündigung des Projekts Stargate seiner zweiten Amtszeit einen medienwirksamen Startschuss. Trump 2.0 präsentiert sich mit einem Infrastrukturvorhaben, das selbst für die boomende Technologie KI auf den ersten Blick beeindruckend daherkommt. 500 Milliarden Dollar sollen aus privaten Investitionen über die nächsten fünf Jahre in den Bau eines Netzwerks von Rechenzentren für den Branchenprimus Open AI fliessen.
Die amerikanische Regierung ist gemäss Berichten mit keinem Cent an der Finanzierung von Stargate beteiligt. Trump hat aber mit einer Notstandserklärung wohl dafür gesorgt, dass die Stargate-Rechenzentren leichter zum Bauland und zur Stromversorgung kommen, die für ihren Bau und Betrieb nötig sind.
Mit der in Aussicht gestellten Investition will Open AI seine Rechnerinfrastruktur ausbauen. Der Fokus auf mehr Rechenleistung, also auf schnellere Computer, hat sich für das Unternehmen bisher ausgezahlt. Für die Entwicklung immer besserer KI-Modelle sind nämlich drei Hauptzutaten unerlässlich: Rechenleistung, Daten und Algorithmen. Von den dreien ist die Rechenleistung immer noch die wichtigste. Somit setzt Open AI mit Stargate schon einmal die richtige Priorität.
Datenknappheit ist vorerst kein Problem
Die zweite Zutat, die Daten, bereitet Open AI offenbar keine Sorgen. Datenmangel schien noch bis vor kurzem zumindest für Sprach-KI wie Chat-GPT eine Hürde darzustellen. Schliesslich haben die KI-Firmen für den Bau ihrer besten Modelle in den letzten Jahren bereits praktisch alles abgesaugt, was das Internet an Text zu bieten hat.
Noch im vergangenen Juni hatte das KI-Forschungsinstitut Epoch AI mit einer Studie Zweifel daran gesät, dass der Datenfundus mit der Nachfrage immer grösserer KI-Modelle langfristig Schritt halten kann. Die Studie sagte voraus, dass den KI-Firmen spätestens im Jahr 2032 die wertvollen Daten ausgehen würden.
Der Epoch-AI-Forscher und Mitautor der Studie Pablo Villalobos sieht das heute anders. «Unlängst schien die Datenmenge noch der Flaschenhals zu sein. Aber in letzter Zeit haben wir gesehen, dass KI-Modelle dank selbst erzeugten Daten – sogenannten synthetischen Daten – grosse Fortschritte gemacht haben», sagt er. Das gelte vor allem beim Lösen von mathematischen Aufgaben, aber auch in anderen Bereichen.
Die neuesten Modelle von Open AI wie o1 und 03 seien auch deshalb besser als die Vorgänger, weil sie mehr Rechenaufwand betreiben, wenn sie dem Nutzer eine Antwort geben. Man könne also viel erreichen, ohne die Modelle mit immer mehr Daten zu füttern.
Der EPFL-Professor Martin Jaggi denkt auch nicht, dass Datenknappheit in den nächsten paar Jahren die KI-Grössen beschäftigen werde. Es gehe nicht nur um die Quantität, sondern auch um die Qualität der Daten. So sei etwa ein Wikipedia-Artikel zur Kernenergie qualitativ hochwertiger als der Blog eines Amateurs zum selben Thema. Mit o1 habe Open AI gezeigt, dass man viel mehr als bis anhin gedacht aus den vorhandenen Daten herausholen könne, wenn man sie richtig kuratiere.
So wichtig die Rechenleistung noch ist: Irgendwann könnte die Datenknappheit wieder ein Thema werden. Laut Villalobos ist es schwer abzuschätzen, wie weit KI in fünf Jahren sein wird. «Bis dahin könnte es sein, dass KI schon alles weiss, was wir Menschen wissen», sagt er. «Ab dann müssten wir uns etwas einfallen lassen, damit KI weiterhin lernfähig bleibt. Vielleicht müssen wir sie Experimente in der physischen Welt durchführen lassen, so wie es auch Menschen tun, um neue Dinge zu lernen.»
«Ein etwas verzweifelter Versuch»
Obwohl es richtig ist, Milliarden in mehr Rechenleistung zu investieren, ist Stargate kein Garant für den langfristigen Erfolg von OpenAI. Laut EPFL-Professor Jaggi ist mehr Rechenleistung zwar notwendig, aber nicht ausreichend, um sich im Kampf um die KI-Überlegenheit zu behaupten. Jüngste Entwicklungen aus China zeigten, dass sich hochleistungsfähige KI-Modelle auch mit relativ bescheidenen Computerressourcen entwickeln liessen.
Tatsächlich hat das chinesische Unternehmen Deep Seek im Dezember ein neues Modell vorgelegt, das den Vergleich mit den Spitzenmodellen westlicher Firmen nicht scheuen muss. «Die Performance dieses Modells ist wirklich hervorragend», sagt Jaggi. Dabei habe das Training von Deep Seek V3, so der Name der chinesischen KI, nur einen Zehntel der Rechenkraft verbraucht, die für die besten westlichen Modelle aufgewendet wurde.
Diesen Montag hat Deep Seek sogar nachgelegt und mit R1 sein erstes Modell mit der Fähigkeit zum logischen Denken veröffentlicht. Die Details der chinesischen Modelle sind im Gegensatz zu jenen von Open AI für jedermann zugänglich. Davon profitieren KI-Forscher und Ingenieure, die diese Modelle als Basis für ihre eigenen KI-Tools nutzen.
Die Chinesen locken auch mit viel tieferen Preisen. Allerdings haben ihre Modelle auch den Makel der chinesischen Zensur, die bestimmte, für das kommunistische Regime unliebsame Inhalte verbietet. Aber in Bezug auf Performance treten die Macher der chinesischen KI-Modelle durchaus selbstbewusst auf und schlagen gemäss ersten Tests die Konkurrenz in mehreren Aufgaben.
Das Projekt Stargate wirke deshalb ein wenig wie ein verzweifelter Versuch, die chinesische Konkurrenz abzuschrecken, sagt Jaggi. Allerdings sieht er Open AI in seiner Marktführerrolle nicht akut gefährdet. Die amerikanische Firma habe mit ihren jüngsten Produkten gezeigt, dass in ihr noch viel Innovationskraft stecke.
Für Marcel Salathé, Co-Leiter des EPFL AI Center, ist das Projekt Stargate eine klare Botschaft aus den USA, dass sie bereit seien, alles zu tun, um ihre Vormachtstellung im Bereich KI zu verteidigen. Der Druck sei enorm hoch: Die nächsten zwei bis drei Jahre könnten laut Salathé entscheidend sein. «Wer es als Erstes schafft, eine Art KI-Ingenieur zu bauen, der sich selbst verbessern kann, wird nur noch schwer einzuholen sein», sagt Salathé.
Das Rennen bleibt aber noch offen. Pablo Villalobos vom KI-Forschungszentrum Epoch AI betont, Sam Altman habe die Konkurrenz noch nicht abgehängt.
Die schiere Geldsumme, die mit Stargate investiert werden soll, ist zwar eindrücklich. Aber der erwartete Zuwachs an Rechenleistung ist es nicht. Villalobos begründet das damit, dass die neuen Rechenzentren komplexer und somit teurer sein dürften als die bisherigen.
Der Epoch-AI-Forscher schätzt, dass OpenAI innerhalb der nächsten zwei Jahre seine Rechenleistung verzehnfachen werde. Dieses Wachstum sei aber lediglich eine Fortsetzung des bisherigen Trends. Die Rechenleistung für KI-Unternehmen nehme schon seit Jahren um den Faktor vier bis fünf pro Jahr zu.
Mit anderen Worten: Stargate dürfte lediglich verhindern, dass OpenAI im Wettbewerb mit chinesischen Anbietern zurückfällt.