Freitag, Oktober 18

Künstliche Intelligenz (KI) ist teuer, weil sie enorme Rechenleistung benötigt. Eine Abfrage bei Chat-GPT kostet hundert Mal so viel wie eine Google-Suche. Das stellt die grossen Tech-Konzerne vor Probleme.

Das hat sich Google wohl anders vorgestellt. Vor zwei Wochen integrierte das Unternehmen in seine Suchmaschine in den USA erstmals Antworten, die von einer künstlichen Intelligenz (KI) generiert werden. Sie fassen für die Nutzer das Wichtigste in einem Text zusammen – noch vor den klassischen Suchergebnissen. Der Konzernchef Pichai rief eine neue Ära aus.

Doch nun liefert die KI-Suche peinliche Antworten. Was tun, wenn der Käse nicht auf der Pizza hält? «Geben Sie etwas Kleber hinzu», liess die KI-Zusammenfassung von Google die amerikanischen Nutzer wissen. Weitere solche Beispiele machten in den sozialen Netzwerken die Runde.

Genauigkeit hat ihren Preis

Der Fall wirft ein Schlaglicht auf ein grundlegendes Problem: KI-Anwendungen sind immer noch teuer. Die besten Modelle – wie Chat-GPT-4 der Firma Open AI – benötigen eine enorme Rechenleistung, um auf die Fragen der Nutzer ihre Antworten zu formulieren.

Die Kosten solcher Modelle sind zu hoch für eine normale Suche. Google dürfte laut Branchenbeobachtern deshalb für seine neue Suchmaschinen-Funktion ein vergleichsweise günstiges eigenes KI-Modell einsetzen. Doch günstig heisst auch: weniger genau.

100 Mal so teuer wie eine Google-Suche

Um welche Grössenordnungen es geht, zeigt ein Beispiel. «Die Rechenkosten für eine normale Google-Suche betragen geschätzte 0,02 Cent», sagt Dylan Patel im Gespräch. Der Gründer der Firma Semianalysis beobachtet von San Francisco aus die KI-Branche. «Im Gegensatz dazu verursacht eine Abfrage mit Chat-GPT-4 Rechenkosten von rund 3 Cent.» Die fortschrittlichsten KI-Anwendungen sind also 100 Mal so teuer wie eine herkömmliche Google-Suche.

Der Grund dafür ist, dass die KI-Anwendungen auf hochkomplexen Sprachmodellen beruhen. Sie berechnen auf Basis von Milliarden von Datenpunkten, welches Wort in einer Reihe von Wörtern am wahrscheinlichsten als nächstes folgt. Um in vernünftiger Zeit Antworten auf die Fragen von Nutzern zu liefern, benötigen die Sprachmodelle Hochleistungs-Computerchips (meist des Herstellers Nvidia) und grosse Mengen an Strom.

Das fällt ins Gewicht. Die Suchmaschine von Google erhält weltweit rund 2 Billionen Suchanfragen pro Jahr. Für den hypothetischen Fall, dass das Unternehmen seinen herkömmlichen Such-Algorithmus komplett durch das derzeit leistungsfähigste KI-Modell ersetzen würde, könnten sich die Rechenkosten vervielfachen, auf 60 Milliarden Dollar pro Jahr. Um die Kosten zu begrenzen, dürfte Google bei seiner neuen KI-Funktion in den USA sein schlankstes und günstigstes Sprachmodell namens Gemini Flash einsetzen, wie der Branchenanalytiker Patel vermutet. Zudem liefert Google nicht auf alle Suchanfragen eine KI-Antwort, was die Kosten ebenfalls im Rahmen hält.

Wettrüsten der Tech-Giganten

Offensichtlich ist die Frage nicht trivial, wie KI-Anbieter Geld verdienen können. Gegenwärtig herrscht eine paradoxe Situation. Auf der einen Seite findet ein Wettrüsten unter den grossen amerikanischen Tech-Konzernen statt. Laut dem «Economist» werden der Google-Konzern Alphabet, die Facebook-Mutterfirma Meta, der Cloud-Anbieter Amazon und der Open-AI-Partner Microsoft in diesem Jahr zusammengenommen rund 200 Milliarden Dollar in Rechenzentren und Computerchips investieren. Die Ausgaben braucht es für das Ausführen von KI-Modellen sowie für das aufwendige Training neuer Sprachmodelle mit Daten.

Auf der anderen Seite ist unklar, ob sich die riesigen Investitionen betriebswirtschaftlich rechnen werden. Der Meta-Chef Mark Zuckerberg räumte jüngst gegenüber Investoren ein, das könne Jahre dauern. Manche Branchenbeobachter sind kritischer und sagen, die Investitionen seien um ein Tausendfaches zu hoch.

Klarer Gewinner des KI-Hypes ist bis jetzt nur der Chiphersteller Nvidia. Er verdient sich an der enormen Nachfrage nach seinen Hochleistungschips eine goldene Nase.

Open AI schreibt Verluste

Hingegen sind für die Entwickler und Anbieter von KI-Modellen Gewinne vorerst eine reine Zukunftshoffnung. Das trifft auch auf den Branchenleader Open AI zu. Das Unternehmen rund um den Gründer Sam Altman konnte zwar jüngst betriebswirtschaftliche Erfolge vermelden. Die Einnahmen sind stark gestiegen auf über 2 Milliarden Dollar auf Jahresbasis.

Dennoch schreibt Open AI laut Altman immer noch Verluste. Die Kosten für das Ausführen und Trainieren der Sprachmodelle seien enorm hoch, erklärte er im Februar. Laut Branchenbeobachtern dürfte das Trainieren von Chat-GPT-4 rund 450 Millionen Dollar verschlungen haben. Die Kosten für die Entwicklung von Chat-GPT-5, dem nächsten und noch viel grösseren Sprachmodell, mit dem Open AI nun begonnen hat, werden auf 5 bis 7 Milliarden Dollar geschätzt.

Suche nach günstigeren Sprachmodellen

Wie können vor diesem Hintergrund profitable Geschäftsmodelle aussehen? Mit der grossen Masse an Konsumenten Geld zu verdienen, dürfte schwierig werden. «Eine Sprach-KI allein ist kein Businessmodell», sagte jüngst Jonas Andrulis, Mitgründer und CEO des deutschen KI-Startups Aleph Alpha, im Interview mit der NZZ. «Die Zahlungsbereitschaft von Konsumenten für den Zugang zu Modellen wie Chat-GPT ist gering, zu gering.»

Vergleichsweise einfache Anwendungen wie eine Internet-Suche oder eine simple Anfrage an einen KI-Chatbot können wohl nur über Werbung finanziert werden – so wie das bis jetzt schon bei Google oder bei Facebook der Fall ist. Die KI-Anbieter müssen dann allerdings darauf achten, dass die Betriebskosten nicht ausufern.

In der Branche wird denn auch intensiv daran geforscht, schlankere und günstigere Sprachmodelle zu entwickeln, die dennoch akkurat sind. Der französische AI-Entwickler Mistral könnte hier einen Trumpf haben. Auch Meta kann mit seinem Open-Source-Sprachmodell Llama Erfolge vorweisen. Gleichzeitig versuchen grosse Rechenzentren-Betreiber wie Google, Amazon oder Microsoft eigene Alternativen zu den teuren Nvidia-Chips voranzutreiben, um die Kosten ihrer Serverfarmen zu reduzieren.

Ersetzt KI die Arbeitskraft?

Am wahrscheinlichsten werden KI-Anbieter wohl Geld mit Firmenkunden verdienen. Unternehmen interessieren sich dafür, wie sie mithilfe von künstlicher Intelligenz ihre Prozesse verbessern und allenfalls Arbeitskräfte einsparen können. In einer guten Position befindet sich etwa Microsoft. Der Konzern integriert die KI-Lösungen von Open AI in seiner Software für Unternehmen, verlangt dafür aber von den Firmenkunden einen monatlichen Aufpreis.

Die KI-Anwendungen mögen zwar wegen ihrer enormen Rechenanforderungen teuer sein. Aber für Firmen wird oft etwas anderes relevanter sein: dass sie günstiger sind als menschliche Arbeitskraft.

Exit mobile version