Donnerstag, Januar 9

AGI – allgemeine künstliche Intelligenz – gilt als der heilige Gral der Tech-Branche. Lange schien sie unerreichbar. Das neue KI-Modell von Open AI kommt dem Ziel einen bedeutenden Schritt näher.

Sam Altman ist für kühne Prognosen bekannt. Der CEO von Open AI, der Firma hinter Chat-GPT, versprach schon, dass künstliche Intelligenz (KI) alle Armut beseitigen, alle Krankheiten heilen und die Menschheit zu den Sternen bringen würde. Normalerweise fehlt seinen Versprechen aber der Termin ihrer Einlösung.

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Aus diesem Grund stürzt sich die Tech-Welt gerade auf eine Aussage im Neujahrsbeitrag von Altmans Blog. Er formuliert konkreter als gewohnt: «Wir sind jetzt überzeugt, dass wir wissen, wie wir AGI nach unserem traditionellen Verständnis bauen können», schreibt Altman. Und weiter: «2025 werden erste KI-Agenten ‹in die Arbeitswelt eintreten› und den Ertrag von Unternehmen wesentlich verändern.»

AGI ist so etwas wie der heilige Gral in der Welt der künstlichen Intelligenz. Die Abkürzung steht für «Artificial General Intelligence», auf Deutsch: künstliche allgemeine Intelligenz. Es gibt keine eindeutige und messbare Definition davon, sondern eher ein grundsätzliches Verständnis: Spezialisierte KI-Systeme besiegen den Menschen schon lange in Schach und übertreffen ihn bei der Gesichtserkennung. AGI bezeichnet ein System , das mit dem Menschen flexibel in ganz verschiedenen Tätigkeitsfeldern mithalten kann.

Würden damit alle Menschen arbeitslos? Könnte KI tatsächlich autonom Forschung vorantreiben? Die Implikationen eines solchen Systems für Innovation und Arbeitsmarkt sind kaum absehbar. Muss man Altman ernst nehmen und sich darauf vorbereiten, dass AGI kurz bevorsteht?

Grosser Fortschritt bei Test für echte Intelligenz

Thomas Hofmann war lange als leitender Forscher für Google in Zürich tätig, seit 2014 lehrt er als Professor für maschinelles Lernen und Datenanalytik an der ETH Zürich. Er sagt: «Sam Altman spielt in seiner Aussage auf den qualitativen Fortschritt an, den es in der KI-Forschung gegeben hat.» Lange wurde KI nur durch immer mehr Daten und immer grössere Modelle verbessert. Nun gebe es qualitativ neue Ideen für den Aufbau der Modelle. «Ein gutes Beispiel ist das neue O3-Modell von Open AI.»

Dieses neue Modell soll ab Ende Januar in einer Mini-Version für Chat-GPT-Nutzer verfügbar sein. Es sorgt aber schon jetzt für Furore, vor allem durch seine Resultate bei einem Test, bei dem bisherige KI-Modelle kläglich scheiterten.

Es handelt sich dabei um den «Abstraction and Reasoning Corpus», einen Test für KI, den sich der Forscher François Chollet ausgedacht hat. Sein Ziel war ein Massstab für KI, der abstraktes Denken prüft, nicht einfach Vorwissen abfragt. Die Aufgaben sehen zum Beispiel aus wie hier:

«Wenn Sie als Mensch diese Art Rätsel sehen, wissen Sie sofort, wie es weitergeht. Sie erfassen die Regel hinter der Fragestellung und leiten die richtige Lösung ab. Das können auch Kleinkinder – aber die KI-Programme von heute nicht», sagte Chollet noch im April 2024 in einem Interview mit der NZZ.

Tatsächlich konnte das im Frühjahr führende KI-Modell GPT-4-0 nur 5 Prozent der Aufgaben des Tests lösen. Das neueste Modell von Open AI, O3, löste hingegen je nach Version 76 oder sogar 88 Prozent der Aufgaben richtig. In einem Blog-Beitrag dazu nennt Chollet diesen Sprung einen überraschenden Durchbruch.

Hofmann sieht das genauso: «Der Abstraction and Reasoning Test steckt ein sehr hohes Ziel: Um ihn zu lösen, muss KI aus wenig Informationen Schlussfolgerungen ableiten.» Die guten Resultate in dem Test wertet Hofmann als Hinweis, dass die Überwindung wichtiger Schwächen von Sprachmodellen bevorsteht. Denn Sprach-KI gibt immer wieder falsche Antworten und lässt sich durch Fangfragen in die Irre führen.

Sie ist in ihrem «Denken» weder so robust noch so flexibel wie der Mensch. Eine KI, die logisch denken und abstrakte Schlüsse ziehen kann, sollte auch in der Lage sein, sich selbst zu überprüfen und damit solche Fehler zu vermeiden.

Doch noch ist nicht bekannt, wie O3 funktioniert. Hofmann betont, man müsse noch genauer untersuchen, ob die Resultate von O3 aus echter Denkfähigkeit herrühren oder das System den Test nur durch einen Trick überlistet: «Bisher hat aber keiner eine Abkürzung gefunden, diese Challenge ohne abstraktes Denken zu lösen.»

Vereinbarung mit Microsoft gilt nur bis zum Erreichen von AGI

Nach seinem Blog-Beitrag hat sich der Erfinder der Challenge, Chollet, noch einmal auf X, ehemals Twitter, zu Wort gemeldet und betont, dass man seinen Test nicht überbewerten dürfe. Wenn man ihn nicht bestehe, bedeute das, dass man keine Intelligenz besitze. Ihn zu bestehen, bedeute, dass man Intelligenz besitze – das sei ein grosser Fortschritt, aber nicht gleichbedeutend mit dem Erreichen von AGI. Er arbeitet bereits an einer Neuauflage mit weiteren, schwierigeren Fragen.

Open AI indes hat eine eigene Definition von AGI: Sie sei ein «hochautonomes System, das Menschen bei einem Grossteil der ökonomisch wertvollen Arbeit ersetzt». Dies dürfte Sam Altman meinen, wenn er von «AGI nach unserem traditionellen Verständnis» spricht.

Für Open AI ist das Erreichen von AGI mehr als eine philosophische Frage. Denn das Abkommen zwischen dem Startup und dem Investor Microsoft legt fest, dass die Lizenzvereinbarungen mit Microsoft beim Erreichen von AGI nicht mehr gelten, sondern nur für die Technologien auf dem Weg dorthin.

Deshalb wurde bereits spekuliert, ob Sam Altman die Schwelle für AGI möglichst tief setzen will, um sich aus den Verträgen mit Microsoft zu befreien. Laut einer Recherche des Branchenmagazins «The Information» legt die Vereinbarung zwischen Microsoft und Open AI allerdings einen anderen Massstab an AGI: einen monetären. AGI sei erst dann erreicht, wenn Open AI Systeme entwickelt habe, die Profite von etwa 100 Milliarden Dollar generierten, auf die die ersten Investoren, einschliesslich Microsoft, Anspruch hätten. Zum Vergleich: Der Facebook-Konzern machte im dritten Quartal 2024 etwa 16 Milliarden Gewinn. Open AI schreibt noch Verluste.

Sam Altman strebt jetzt Superintelligenz an

Thomas Hofmann sieht 100 Milliarden Dollar Gewinn als in einigen Jahren erreichbare Grösse an, wenn AGI tatsächlich erreicht wird. Denn: «Software wäre dann nicht mehr nur ein Werkzeug, sondern eher ein Team-Mitglied, mit dem man zusammenarbeitet.» Für manche Jobs sei das ein realistischer Trend, meint Hofmann, etwa bei Verwaltungs- und Schreibarbeiten, in der Nachhilfe oder im Marketing.

Insgesamt erhöhe das die Produktivität, zugleich mache es ihm auf gesellschaftlicher Ebene Sorgen: «Ob AGI im Jahr 2025 kommt oder ein paar Jahre später – sie wird sehr schnell sehr vielen Menschen die Arbeit wegnehmen. Die naiv-positive Stimmung, die Sam Altman in seinem Blog verbreitet, finde ich nicht angemessen.»

Der steckt derweil schon die nächsten Ziele ab. Weil AGI so gut wie erreicht sei, strebe Open AI nun «Superintelligenz im wahren Sinn des Worts» an. «Wir lieben unsere derzeitigen Produkte, aber arbeiten für die glorreiche Zukunft. Mit Superintelligenz können wir alles andere erreichen.»

Die Schlacht der Begriffe erinnert ein bisschen an jene bei den selbstfahrenden Autos. Als die Innovationen nicht so schnell kamen wie angekündigt, begannen Hersteller, von autonomen und vollautonomen Fahrzeugen zu sprechen, um Fortschritte vorweisen zu können.

Und sicher muss man Altmans Neujahrsgedanken auch als Botschaft an seine Investoren lesen, zumal die KI-Systeme von Open AI immer wieder von Konkurrenten überholt werden und keineswegs einzigartig am Markt sind. Klar ist aber auch: Wenn O3 so gut funktioniert, wie es scheint, ist es Open AI einmal mehr gelungen, den ersten Platz unter den KI-Unternehmen zu verteidigen, egal, ob AGI bevorsteht oder nicht.

Exit mobile version