Heutige KI läuft auf Hochleistungschips der Firma Nvidia und verbraucht riesige Mengen an Strom. In Dresden bauen Ingenieure eine sparsamere Alternative. Wie funktioniert sie? Und kann sie sich durchsetzen?
Ohne sie gäbe es keine KI, wie wir sie heute kennen: die Hochleistungschips des amerikanischen Tech-Konzerns Nvidia. Algorithmen sind auf sie ausgerichtet, ein ganzes Software-Ökosystem fusst auf ihnen, die USA nutzen sie als Druckmittel in ihrem Handelskrieg.
Die Chips sind die Hardware für den KI-Boom. Doch sie haben einen Schönheitsfehler: Sie brauchen Unmengen an Energie. Das Trainieren und Betreiben von KI führt dazu, dass grosse Rechenzentren heute so viel Strom verbrauchen wie Kleinstädte. Laut dem neusten Bericht der Internationalen Energieagentur (IEA) benötigt ein typisches, auf KI fokussiertes Datenzentrum so viel Elektrizität wie 100 000 Haushalte. Datenzentren, die sich derzeit im Bau befinden, dürften gemäss der IEA-Studie zwanzigmal so viel Strom verbrauchen.
Die Nvidia-Chips wurden für KI zweckentfremdet. Denn ursprünglich waren sie als Grafikprozessoren (GPU) konzipiert, um Bilder in Computerspielen schneller zu generieren.
Nun arbeiten Ingenieure an neuartigen Computern, die gezielt für KI-Anwendungen gebaut werden. Also Ähnliches leisten sollen wie die Chips von Nvidia, dabei aber nur einen Bruchteil der Energie verbrauchen. Der neue Rechnertyp orientiert sich dabei an der Funktionsweise des menschlichen Gehirns. Er wird deshalb auch «neuromorpher Computer» genannt.
Das Gehirn braucht nur so viel Energie wie eine Glühbirne
Das menschliche Gehirn rechnet sparsam. Anders als die grossen Rechenzentren, die Hunderte von Megawatt an Strom verbrauchen, benötigt es nur so viel Energie wie eine Glühbirne.
Computer, die dem Gehirn nachempfunden sind, sollen ähnlich minimalistisch arbeiten. Sie bestehen aus künstlichen Neuronen, die auf Stromsignale reagieren können. Diese Neuronen schalten sich nur ein, wenn sie ein Signal, also eine Eingabe, verarbeiten. Werden sie gerade nicht gebraucht, bleiben sie ausgeschaltet.
Ausserdem sind die Neuronen im Vergleich zu herkömmlichen Hochleistungschips weniger dicht untereinander vernetzt. Auch das spart Energie.
Diese Art Computer hat prominente Unterstützer. Steve Furber ist ehemaliger Professor für Informatik an der Universität Manchester. In den achtziger Jahren entwickelte er den ersten Mikroprozessor der britischen Firma ARM, dessen spätere Versionen heute in über 90 Prozent aller Smartphones stecken. Für Furber ist das neuromorphe Computing ein Ausweg aus der Sackgasse, in der KI im Moment steckt.
Er sieht KI mit der gegenwärtigen Technologie in einer «tödlichen Umarmung» gefangen, wie er in einem Gespräch im Vorfeld einer Startup-Veranstaltung in St. Gallen sagt. Furber spricht damit den hohen Energieverbrauch der auf Grafikprozessoren (GPU) laufenden KI an.
Rekordhalter öffnet neuromorphes Computing für Kunden
Dass das Konzept des neuromorphen Computers auch in der Praxis funktioniert, zeigte Furber an seiner ehemaligen Universität in Manchester: Er baute mit Forschungsgeldern aus dem Human Brain Project bereits 2016 einen ersten solchen Computer. Dieser blieb allerdings der neurowissenschaftlichen Forschung vorbehalten.
Nun hat ein Unternehmen namens Spinncloud in Dresden einen weiteren neuromorphen Supercomputer geschaffen: Spinnaker 2. Mit spezieller Software, die Teil des Betriebssystems von Spinnaker 2 ist, simuliert der Supercomputer laut Spinncloud ein Gehirn aus bis zu zehn Milliarden künstlichen Neuronen.
Zum Vergleich: Ein menschliches Gehirn hat rund zehnmal so viele Neuronen wie Spinnaker 2. Trotzdem ist der Supercomputer heute das grösste neuromorphe System der Welt – und rund zehnmal so gross wie der bisherige Rekordhalter von Intel.
Kunden können Spinnaker 2 seit rund einem Jahr über die Cloud nutzen. Der CEO von Spinncloud, Hector Gonzalez, sagt, damit könnten sie viel Strom einsparen. Den optimalen Einsatz der Fahrzeuge einer Logistikfirma beispielsweise könnte Spinnaker 2 laut Gonzalez doppelt so effizient berechnen wie ein GPU-Computer, die Suche nach Wirkstoffen für neue Medikamente gar zehnmal so effizient.
Neuromorphes Computing ist noch zu langsam
Doch Gonzalez weiss auch, dass Energieeffizienz allein nicht genügt, um potenzielle Kunden zum Umstieg von den etablierten GPU auf Alternativen wie Spinnaker 2 zu bewegen. Die Berechnungen müssen auch schnell laufen. Und da hapert es zurzeit noch. Insbesondere beim Training von Sprachmodellen haben neuromorphe Computer noch immer einen Nachteil.
Gonzalez sagt, sein Team arbeite daran, die Reaktionszeit der Systeme weiter zu verkürzen. Dazu setzt Spinncloud auf eine Technik, die Forscher von Google Deepmind erfanden. Der Trick besteht darin, jede Nutzeranfrage von einem kleinen Teil des KI-Modells abwickeln zu lassen statt vom ganzen Modell. Mit einem ähnlichen Ansatz schaffte es die chinesische Firma Deepseek, ihre besten KI-Modelle äusserst effizient zu trainieren.
Trotzdem gebe es derzeit noch nicht die «Killer-App», die eine Anwendung, die den Vorteil von rein neuromorphen Computern zeige, bestätigt Furber. Aber dennoch lasse sich dank neuromorphen Systemen in Kombination mit herkömmlichen Computern die Effizienz von KI-Berechnungen steigern.
Warum ändern, was gut funktioniert?
Dass sich neuromorphe Computer trotzdem noch nicht durchgesetzt haben, liegt auch an Strukturen in der Informatikbranche und einer gewichtigen Pfadabhängigkeit: Vor Jahren entschied die Branche, ihre Technik auf GPU aufzubauen. Die Kosten für einen Umstieg auf alternative Systeme wären gross.
Giacomo Indiveri, Leiter des Instituts für Neuroinformatik an der ETH, sagt, insbesondere grosse Unternehmen täten sich schwer mit Veränderungen. «Wenn etwas funktioniert, behalten sie es bei.» Sie nähmen Anpassungen vor, hätten aber selten einen Anreiz, die ganze Technologie zu wechseln.
Der Umstieg auf die neuromorphen Chips wäre deshalb so aufwendig, weil kein Chip in einem Vakuum funktioniert. Er muss in ein Ökosystem eingebettet sein, mit dazugehörender Software-Infrastruktur. Diese aufzubauen, brauche oft mehr Zeit, als den Chip zu entwickeln, sagt Indiveri.
Die Chips von Nvidia sind in eine gut funktionierende Software-Architektur integriert, die von den meisten Technologieunternehmen genutzt wird. Auf dieser müssten Furber und Gonzalez entweder ihre Technologie aufbauen – oder ihr eigenes Ökosystem von Grund auf entwickeln.
Neuromorphe Computer haben also noch viel aufzuholen, bis sie die KI-Chips von Nvidia ernsthaft herausfordern können. Als energiesparende Alternative wären sie aber eine vernünftige Lösung.