Mittwoch, November 27

KI ist an der Börse seit gut anderthalb Jahren das «heisseste» Anlagethema. Der Branchenkenner Benedict Evans äussert sich zu den wichtigsten Trends bei der Anwendung der neuen Technologie, zu philosophischen Grundsatzfragen und zu den Chancen und Risiken für Tech-Konzerne.

English version

Im Technologiesektor dreht sich seit gut anderthalb Jahren alles um generative künstliche Intelligenz. Gemeint ist damit der Boom bei grossen Sprachmodellen, die Texte, Bilder, Musik und Videos erzeugen können. Er wurde gegen Ende 2022 von der Start-up-Firma OpenAI mit ChatGPT lanciert und sorgt an der Börse für viel Fantasie.

Benedict Evans weiss bei den wichtigsten Trends im Zusammenhang mit der neuen Technologie gut Bescheid. Der Brite zählt zu den meistbeachteten Vordenkern in der Tech-Industrie. Sein Newsletter, den er wöchentlich an 175’000 Abonnenten versendet, gehört in der Branche zur Pflichtlektüre. Spannende Einblicke geben auch seine Essays und Präsentationen.

Im Interview äussert sich der Branchenkenner zum Potenzial grosser Sprachmodelle bei praktischen Anwendungen, zu philosophischen Grundsatzfragen beim Umgang mit künstlicher Intelligenz und zu den Chancen sowie Risiken für grosse Tech-Konzerne wie Microsoft, Apple, Alphabet und Nvidia.

Herr Evans, generative künstliche Intelligenz ist und bleibt das grösste Thema im Tech-Sektor. Wie schätzen Sie das Potenzial der Technologie ein?

Die Schlüsselfrage ist, ob sich grosse Sprachmodelle wie ChatGPT so weit entwickeln werden, dass sie im Prinzip alles tun können, was bestehende Software kann. Oder, ob es sich einfach um Programme handelt, die letztlich in andere Software integriert werden. Alles andere ergibt sich daraus. Beispielsweise: Was geschieht mit den Kosten zum Bau und Betrieb dieser Modelle? Werden sie zur Massenware? Wie effizient werden sie? Und, wird jede Firma ihr eigenes Modell haben?

Erleben wird demnach wirklich einen revolutionären Wechsel zu einer neuen Plattform? Oder handelt es sich bloss um einen riesigen Hype?

Ich würde es etwas anders formulieren: Das Grundszenario ist, dass wir bloss einen weiteren Plattformwechsel erleben, wie bei der Einführung des Smartphones, des Internets oder des PCs. Das ist der Konsens. Die aggressivere Sichtweise ist, dass es sich um etwas viel Grösseres handelt; eine tiefgreifende Veränderung, was das Potenzial von Computertechnologie betrifft – und möglicherweise sogar um noch viel mehr.

Meinen Sie damit, dass diese Modelle echte Intelligenz entwickeln könnten, wobei auch von künstlicher genereller Intelligenz oder kurz KGI gesprochen wird?

Das Problem in dieser Hinsicht besteht darin, dass wir weder eine Theorie darüber haben, was KGI ist, noch darüber, wie wir sie entwickeln können, noch darüber, was menschliche Intelligenz ist. Man kann also entweder sagen: Diese Technologie wird sich sehr schnell verbessern und möglicherweise künstliche generelle Intelligenz erreichen. Oder man kann sagen: Es ist ungefähr so, als würde man Raketen in den Himmel schiessen und sich fragen, ob sie den Mond erreichen werden, wenn man keine Theorie über Schwerkraft hat und darüber, wo der Mond ist. Wenn man das alles nicht weiss, warum sollte man sich dann gross Sorgen darüber machen?

Zu welcher Ansicht neigen Sie?

Ich tendiere eher zur zweiten Kategorie. Aber da wir keine Theorie darüber haben, was KGI ist, und wir nicht verstehen, wie diese Modelle genau funktionieren, ist es enorm schwierig, Vorhersagen darüber zu machen, wohin sich diese Technologie entwickeln wird.

Warum verstehen wir nicht, wie grosse Sprachmodelle funktionieren?

Es ist wie beim menschlichen Gehirn. Auf einer mechanischen Ebene können wir es zwar scannen. Auch wissen wir, was Neuronen sind, und wir haben eine Vorstellung davon, welche Moleküle involviert sind. Aber wir wissen nicht, wie es genau funktioniert: Was ist beim menschlichen Gehirn beispielsweise anders als beim Gehirn eines Schimpansen? Die spezifischen Aspekte, die den Unterschied in der Wahrnehmung ausmachen, kennen wir nicht. Ebenso verstehen wir auf einer mechanischen Ebene, was grosse Sprachmodelle tun. Doch wir wissen nicht, warum sie so gute Ergebnisse liefern. Deshalb lässt sich auch nicht sagen, was passieren würde, wenn man sie doppelt so gross macht.

Die KI-Modelle benötigen mit jeder neuen Generation erheblich mehr Rechenkapazität, doch die Verbesserungen erscheinen eher graduell. Anders gesagt: Unterliegt die Technologie dem ökonomischen Gesetz des sinkenden Grenzertrags?

Es ist noch früh, also kennen wir die Antwort nicht. Aber jede Technologie, die wir in der Vergangenheit entdeckten, hatte einen abnehmenden Grenzertrag. Es ist daher schwierig zu behaupten, dass grosse Sprachmodelle die Ausnahme sind. In den letzten anderthalb Jahren gab es wesentliche Fortschritte. Die Effizienz der Modelle wurde verbessert und sie wurden horizontal erweitert, so dass sie auch Bilder, Ton und Video erzeugen können. Bisher wurde jedoch noch kein ernsthafter Versuch unternommen, sie um ein Vielfaches zu vergrössern.

Was würde denn echte Intelligenz bedeuten?

Die Herausforderung besteht darin, dass wir keine wissenschaftliche Definition dafür haben, was intelligent ist und was nicht. Wir halten einen Taschenrechner nicht für intelligent, ebenso wenig wie wir eine Waschmaschine für intelligent halten, obwohl sie Wäsche viel besser waschen kann als wir. In der Vergangenheit gab es immer eine Kategorie von Problemen, die Computer nicht lösen konnten. Die Fähigkeit, diese Probleme zu lösen, wurde dann als künstliche Intelligenz bezeichnet.

Was meinen Sie damit genau?

In den 1960er Jahren beispielsweise versuchten Informatiker, Übersetzungen zu automatisieren. Computer sollten Russisch ins Englische übersetzen, da westliche Geheimdienste all diese russischen Signale abhörten. Die Technologie war dazu aber nicht fähig, weshalb man sagte, so etwas wäre dann künstliche Intelligenz. Heute haben wir solche Übersetzungsprogramme, aber wir betrachten sie nicht als KI, sondern einfach als Software. Es gibt daher einen alten Witz, doch eigentlich ist es eher eine Beobachtung, dass wir von KI sprechen, wenn etwas noch nicht funktioniert. Wenn es dann aber einmal funktioniert, nennen wir es schlicht Software.

Es heisst, echte künstliche Intelligenz würde ein grundsätzliches Verständnis unserer Umgebung voraussetzen; beispielsweise, wie sich Schwerkraft auswirkt.

Das ist der Grund, warum die Bezeichnung «generelle Intelligenz» aufgekommen ist. Sie steht dafür, dass ein Computer ein gewisses Konzept davon hat, wie die Welt funktioniert. Ein Geschirrspüler kann nicht auf eine neue Situation reagieren, so wie es ein Mensch, ein Schimpanse oder ein Hund kann. Man stellt das Geschirr hinein, er wäscht es, aber er weiss nicht, was Geschirr ist. Doch wenn Sie einem Hund einen Salat gibt, wird er sich weigern, ihn zu fressen. Er versteht, dass es kein Hundefutter ist. Man könnte deshalb auch argumentieren, dass generelle Intelligenz im Grunde einfach Intelligenz ist.

Eine andere Frage ist, welche Produktivitätsgewinne diese Modelle ermöglichen werden. Was wird die «Killer App» für den Massenmarkt?

Ich glaube nicht an Killer Apps. Das Konzept stammt aus der Anfangszeit des Internets, und ich bezweifle, dass dieser Vergleich nützlich ist. Fragen Sie sich: Was war die Killer App für den PC? Zuerst kamen Tabellenkalkulationsprogramme, dann die Textverarbeitung, dann die Datenbank und schliesslich das Internet. Es war nicht eine einzige Anwendung, die alle dazu gebracht hat, sich einen PC zu kaufen. Das Besondere bei grossen Sprachmodellen ist, dass sie diese langsame und komplizierte Evolutionsphase übersprungen haben, in der sich herauskristallisiert, wofür eine Technologie geeignet ist. Beim Internet zum Beispiel musste man warten, bis jeder einen PC hatte, bis es Breitbandverbindungen gab, bis die Software besser wurde und bis sich das Nutzerverhalten änderte. Es dauerte zehn bis zwanzig Jahre, bis es kommerziell funktionierte.

Weshalb ist das bei grossen Sprachmodellen anders?

OpenAI musste nicht darauf warten, dass die Leute ein spezielles Gerät kaufen oder dass die Telecomindustrie das Internet aufbaut. Für uns ist ChatGPT eine Website oder eine App: Hunderte von Millionen Menschen haben ChatGPT ausprobiert, doch offenbar sehen die meisten keinen wirklichen Nutzen darin. Studien zeigen, dass ChatGPT von einem Viertel bis einem Drittel der Menschen in den Industrieländern ausprobiert wurde, aber nur von 1 bis 5% täglich genutzt wird. Ähnlich ist es bei Unternehmen. Jeder Grosskonzern hat einen Pilotversuch mit einem KI-Modell gestartet, doch nur wenige setzen es als Produkt ein. Vielleicht ist es nur eine Frage der Zeit, aber diese Modelle können auch zu Trugschlüssen verleiten: Sie sehen aus wie ein Produkt und wirken magisch, sind es aber nicht. Vielleicht braucht es für den kommerziellen Durchbruch also doch einen langwierigen Prozess wie bei anderen Technologien

Entsprechend spannend ist es, wie Apple die Technologie einsetzen will. Was lässt sich aus der KI-Strategie des Tech-Riesen mit mehr als einer Milliarde Nutzern ableiten?

Darauf gibt es zwei Antworten. Erstens, das Unternehmen hat eine Reihe kohärenter Ideen präsentiert, wie es grosse Sprachmodelle als Feature nutzen will. In diesem Zusammenhang ist typisch, dass etablierte Marktakteure immer versuchen, eine neue Technologie zu einem Feature zu machen: Microsoft versuchte, das Web zu einer Funktion von Windows zu machen; Google und Facebook wollten das Smartphone zu einer Funktion ihrer Internetdienste machen. Microsoft und Google haben die letzten achtzehn Monate damit verbracht, ihre Produkte mit grossen Sprachmodellen zu versehen. Das macht Apple jetzt auch, aber mit einer etwas einheitlicheren Strategie.

Und wie lautet die zweite Antwort?

Apples Strategie weist auf all die spannenden Fragen hin: Werden KI-Modelle in der Cloud oder auf Endgeräten basiert sein? Wird man jedes Mal dafür zahlen müssen oder wird es kostenlos sein? Wird es nur ein Modell geben oder werden sie Massenware, die man mit ausreichend Geld kaufen kann? Ist das Modell wie ein Orakel, dem man Fragen stellt? Oder wird es so abstrakt, dass der Nutzer es nicht einmal sieht? Hierzu ein Beispiel: Wenn man in Zukunft die E-Mail-App öffnet, sieht man nicht mehr die ersten beiden Zeilen jeder Nachricht, sondern eine von einem KI-Modell generierte Zusammenfassung. Es wird also zwanzig verschiedene Dinge geben, die das iPhone mit Hilfe des Modells im Hintergrund macht, doch man wird es nie sehen. Es wird als Funktion präsentiert, einschliesslich der neuen Version von Siri.

Wie interpretieren Sie demnach Apples neue Partnerschaft mit OpenAI?

Die Art und Weise, wie Apple ChatGPT behandelt, ist ausgesprochen interessant. Ähnlich wird Google im Apple-Browser Safari behandelt: Wer etwas im Internet sucht, wird aus Apples Ökosystem weg auf eine externe Plattform geschickt. Klar ist ebenso, dass Apple nicht nur mit OpenAI zusammenarbeiten wird, sondern auch andere KI-Modelle wie Gemini von Google und möglicherweise Anthropic nutzen wird. Zugleich entwickelt Apple aber auch ein eigenes Basismodell in der Cloud. In dieser Hinsicht unterscheidet sich die Strategie zur Internetsuche, wo Apple niemals einen eigenen Suchdienst aufbauen würde. Das heisst, die Wahrscheinlichkeit ist gross, dass Apple diese KI-Dienste mit der Zeit sukzessive auf die eigene Plattform zurückholen wird.

Inwiefern wird mit der vorläufigen Outsourcing-Strategie auch die eigene Marke geschützt? Apple kann sich so peinliche Schlagzeilen ersparen, wenn ein KI-Modell empfiehlt, Leim auf die Pizza zu streichen, damit der Käse nicht abrutscht.

Natürlich, die Marke wird so geschützt. Gleichzeitig gibt Apple aber auch ein klares Signal, dass diese Funktionen nicht zu einem einheitlichen System gehören: ChatGPT ist ein separater Dienst, dem man eine bestimmte Art von Frage stellen kann. Und Nutzer werden gewarnt, dass die Antwort falsch sein kann. De facto geht es um Erwartungsmanagement. Wenn man eine Google-Suche durchführt und miserable Ergebnisse erhält, gibt man in der Regel nicht Google die Schuld, sondern sich selbst. Man fragt sich: Habe ich die falschen Suchbegriffe eingeben? Oder existieren diese Informationen gar nicht? Wir haben ein gutes Gefühl dafür, was Google ist; was der Dienst kann und was nicht. Bei ChatGPT haben wir dieses Gefühl nicht, weshalb viele Leute die neuen KI-Modelle noch immer so behandeln, als wären sie eine Datenbank.

Was bedeuten die neuen KI-Funktionen für den nächsten iPhone-Zyklus? Werden sie Apple zu mehr Wachstum verhelfen?

Viel wichtiger ist, ob sich die Entwicklungsumgebung von Apples iOS-Betriebssystem mit der Zeit weg auf KI-Modelle verlagert, oder ob man weiterhin Apple-Geräte kaufen muss, um solche Dienste nutzen zu können. Gemäss Apple werden sie auf Mac- und iPad-Geräten der letzten zwei oder drei Jahre verfügbar sein, beim Smartphone-Sortiment aber nur auf dem neuen iPhone 15 Pro und auf der nächsten iPhone-Generation, weil es dafür eine Menge Rechenleistung braucht. Möglicherweise wird das den iPhone-Absatz beleben. Auch kann es sein, dass Apple in Zukunft mit KI-Diensten, die heute noch kostenlos sind, zusätzliche Einnahmen erzielt. Aber das ist alles zweitrangig gegenüber der Frage, was wir grundsätzlich mit dieser neuen Technologie machen werden.

Was könnte man sich dabei auf Ebene der Verbraucher vorstellen? Erste KI-Geräte wie der Rabbit R1 oder der KI-Pin des Start-up Humane haben sich als Flop erwiesen.

Es ist eine schöne Fantasie, dass man zu so einem Gerät sagen kann: Hier ist ein Foto eines Rezepts für das Abendessen, bestelle alle Zutaten bei Instacart und lasse sie an meine Adresse liefern. Das Problem ist, dass das a) nicht funktionieren wird, weil es so ein Gerät nicht gibt, und b) Instacart nicht mitmachen wird. Warum sollte ein Lieferservice wie Instacart oder ein Taxidienst wie Uber seine gesamte Kundenbeziehung und die Möglichkeit von Zusatzangeboten einem anderen Unternehmen überlassen? Instacart verdient viel Geld mit Werbung und will sich sicher nicht einfach als simpler Infrastrukturanbieter ausnutzen lassen.

Diesbezüglich wird auch viel darüber diskutiert, ob grosse Sprachmodelle das Kerngeschäft von Google mit der Internetsuche gefährden.

Das Grundproblem ist hier eher, inwiefern sich die Onlinewerbung verändern wird. Folgendes Szenario: Ich gehe für ein langes Wochenende nach Barcelona und frage mich, wo ich übernachten kann und was ich unternehmen soll. Heute geht man dafür auf Google, und in kurzer Zeit sind dreissig Tabs im Browser offen. In Zukunft könnte man einfach ein KI-Modell auffordern, ein Reiseprogramm zusammenzustellen, mit einigen guten Restaurants und zwei oder drei schönen Hotels. Auch in diesem Fall kann Werbung eingespielt werden. Produkte und Dienstleistungen werden vielleicht auf andere Weise und zu anderen Preisen verkauft. Am Werbemodell, wie es heute besteht, würde sich grundsätzlich aber wenig ändern.

Dann fragt sich aber auch, was mit den Margen bei Onlinewerbung passiert. Eine Abfrage mit ChatGPT braucht wesentlich mehr Rechenleistung und ist somit viel teurer als eine herkömmliche Internetsuche.

Wie gesagt, erstens sind grosse Sprachmodelle keine guten Suchmaschinen. Zweitens geht es nicht nur darum, wie gut sie werden, sondern auch, wie schnell sie günstiger werden. Nvidia hat im letzten Quartal KI-Chips für 25 Mrd. $ verkauft, und die grossen Cloud-Anbieter werden dieses Jahr über 150 Mrd. $ in Rechenzentren investieren. Der globale Smartphone-Markt umfasst demgegenüber gut 400 Mrd. $ pro Jahr und der PC-Markt über 200 Mrd. $ – und für diese Produkte zahlen die Nutzer. Natürlich sind diese Zahlen nicht direkt vergleichbar, aber es ist relevant: Niemand weiss, was auf uns zukommt. Offensichtlich ist aber, dass die Anreize stark sind, so viel Rechenleistung wie möglich von der Cloud auf Endgeräte zu verlagern.

Apropos Nvidia: Die Marktkapitalisierung des Chipkonzerns beträgt nun rund 3 Bio. $. Ist das gerechtfertigt? So hoch sind sonst nur Apple und Microsoft bewertet.

Bei Nvidia besteht eine Reihe markttechnischer Besonderheiten. Wer an der Börse so direkt wie möglich in KI investieren will, kann fast nur auf Nvidia setzen, weshalb so viel Geld in die Aktien gepumpt wird. Halbleiteranalysten sagen, dass Nvidia einen grossen Wettbewerbsvorteil beim Chipdesign und bei der Software hat. Entscheidend ist aber, wie rasch KI-Modelle effizienter werden. Auch fragt sich, an welchem Punkt ein Konzern wie Google, Meta oder Microsoft plötzlich nicht mehr 50 Mrd. $ pro Jahr für Kapitalinvestitionen ausgeben will, sondern nur noch 40 Mrd. $ – und was das für die Aktien von Nvidia bedeuten würde. Das alles sind Fragen, die darauf hindeuten, dass die Situation um Nvidia ziemlich volatil sein dürfte.

Der Hype um Nvidia und künstliche Intelligenz wird oft mit den Exzessen der Internetblase von 1999/2000 verglichen. Zu Recht?

Viele Leute ziehen Parallelen zu Cisco damals. Das ist jedoch nicht besonders sinnvoll, zumal sich Cisco als Netzwerkausrüster nicht derart stark von der Konkurrenz abheben konnte wie Nvidia heute. In der Dotcom-Blase wurde massiv in den Ausbau der Glasfaserinfrastruktur investiert. Netzwerkprodukte wurden zur Massenware, die zu Grenzkosten verkauft wurde. Dann gingen diverse Anbieter von Internetdiensten in Konkurs, worauf auch das Geschäft der Netzwerkausrüster implodierte. Zumindest bis jetzt kenne ich niemanden, der behauptet, dass Google oder Microsoft pleitegehen werden. Aber eben: Interessant wird, was passiert, wenn sie beschliessen sollten, ihre Kapitalinvestitionen zu kürzen.

Ist es dieses Mal also tatsächlich anders?

Tatsache ist, dass es immer anders ist. Die Internetblase war anders als die japanische Börsenblase, und diese war anders als die Blase von 1987, die sich wiederum vom Crash Mitte der Siebzigerjahre unterschied. Es war immer anders, trotzdem handelte es sich um eine Blase. Und wenn etwas so viel Aufsehen erregt wie KI heute, ist eine Blase praktisch unvermeidlich. In diesem Fall ist sie aber nicht in den Publikumsmärkten, da die Rahmenbedingungen für Börsengänge momentan sehr schwierig sind. Es spielt sich nicht ein Phänomen ab wie 1999, als irgendwelche Firmen für 100 Mio. $ am Morgen an die Börse gingen und am Abend zu 1 Mrd. oder 2 Mrd. $ bewertet waren. Und wenn es heute an der Börse trotzdem Exzesse gibt, dann beschränken sie sich auf eine kleine Anzahl von Unternehmen.

Das heisst, die grössten Übertreibungen spielen sich an den Privatmärkten ab?

Das Bild ist klar: In den Jahren 2021/2022 nahmen Investitionen im Bereich Venture Capital massiv zu und sind heute stark rückläufig. Die Blase, wenn Sie so wollen, die sich während der Pandemie aufgebläht hatte, wird jetzt korrigiert. Viele Start-up-Unternehmen, die damals zu viel Geld zu überhöhten Bewertungen aufnahmen, haben bisher aber nicht akzeptiert, dass sich das Umfeld verändert hat. Sie haben ihre Medizin nicht geschluckt, keine tiefere Bewertung hingenommen und sich kein frisches Kapital verschafft. Infolgedessen gibt es viele Venture-Capital-Fonds, die zu hohe Bewertungen in den Büchern haben. Gleichzeitig wollen alle ihr ganzes Geld in KI-Start-up stecken. Es spielen sich also fast gleichzeitig ein Boom und ein Crash ab.

Das Paradebeispiel für «heisse» Start-up-Firmen im Bereich künstliche Intelligenz ist OpenAI. Die Bewertung soll sich auf rund 80 Mrd. $ belaufen, doch der jährliche Umsatz auf bloss 3,4 Mrd. $. Kann das gut gehen?

Das bringt uns an den Anfang zurück. Die Kernfrage ist: Werden diese Modelle alle anderen Softwareprogramme «auffressen»? Und: Wird es letztlich nur zwei oder drei davon geben, die sich durchsetzen? Oder wird es fünfzig geben, die in das Softwareangebot von Hunderten von Unternehmen integriert sind? Wenn das zweite Szenario eintritt, dann ist OpenAI viel weniger wert als heute. Wenn künftig aber praktisch alle Software dieser Welt auf dem KI-Modell von OpenAI basiert, dann ist die Bewertung günstig.

Benedict Evans

Benedict Evans war mehr als zwanzig Jahre als Analyst für Telecom, Medien sowie Technologie tätig und hat in den Bereichen Aktien-Research, Strategie sowie Venture Capital gearbeitet, unter anderem als Partner bei Andreessen Horowitz. Heute befasst er sich als unabhängiger Beobachter mit dem aktuellen Geschehen im Sektor und den Schlüsselfragen für zukünftige Entwicklungen.

Exit mobile version