Freitag, Februar 21

Tech-Unternehmer versprechen kluge KI-Systeme in naher Zukunft.
Der Kognitionsforscher und Firmengründer Gary Marcus hält das für Bullshit-Schleudern – und wurde von seiner Branche verstossen.

Während die ganze Welt über die Fähigkeiten des neuen chinesischen Sprachmodells Deepseek diskutiert, postet Gary Marcus auf X einen Screenshot von dessen Scheitern.

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Jemand fragt die KI: «Eine Frau und ihr Cousin geraten in einen Autounfall, und traurigerweise stirbt die Frau. Der Cousin wird zur Notoperation gebracht. Nach einem Blick auf den Cousin ruft der Arzt: ‹Ich kann diesen Jungen nicht operieren! Er ist mein Cousin!› Wie ist das möglich?»

Deepseek nach 141 Sekunden «Nachdenkzeit»: «Die Antwort liegt in der Beziehung zwischen dem Arzt und dem Jungen. Der Arzt ist die Mutter des Jungen, aber hier ist die Wendung: Der Arzt ist die Frau, die gestorben ist. Warte, nein – die Frau ist während des Unfalls gestorben. Lass es uns klären:»

«Was, wenn allgemeine künstliche Intelligenz endlich käme . . . und sie sich anhörte wie dein betrunkener Onkel?», kommentiert Marcus.

Auf einen Post dieser Art dürften da schon einige gewartet haben. Gary Marcus ist Kognitionsforscher und hat mehrere Firmen im Bereich der künstlichen Intelligenz (KI) gegründet, doch in der KI-Welt ist er vor allem als oberster Partymuffel bekannt.

In einer Zeit, in der Milliarden in futuristische KI-Projekte investiert werden, spricht Gary Marcus von Bullshit-Schleudern. Während das Silicon Valley predigt, KI werde bald alle Krankheiten heilen, kündigt er das Platzen der Blase an. Und wenn alle über ein neues KI-Modell staunen, postet er Beispiele von Dingen, die es noch nicht kann.

Das hat ihm den Ruf eingebracht, aus Prinzip dagegen zu sein. Grinch, Troll, Bully nennen ihn in der KI-Szene manche. Doch anders als im Internet ist Gary Marcus offline ein freundlicher Typ, mehr Professor als Unternehmer, glatte Haare, die etwas in der Stirn kleben. Und obwohl er zum Treffen mit der «NZZ am Sonntag» während des WEF einen Anzug trägt, wirkt es ein bisschen, als käme er gerade vom Schlittenfahren mit seinen Kindern.

KI verdient das Vertrauen nicht, das Menschen in sie setzen

Marcus ist auf eigene Kosten in Davos. Er spricht auf keiner der grossen Bühnen. Er habe sehr kurzfristig entschieden zu kommen, sagt er erklärend. Doch in Davos werden Veranstaltungen oft kurzfristig geplant – hätten die Richtigen gewollt, hätte sich eine Bühne für ihn gefunden. Die Wahrheit ist wohl, dass man Marcus nicht auf der Bühne haben wollte. Denn beim Thema KI ist gerade Aufbruchstimmung gefragt. Gary Marcus aber lädt man nur ein, wenn man das Gegenteil will.

Das war vor etwa zwei Jahren der Fall. Da sprach Marcus auf einer der wichtigsten Bühnen der Welt: Im Mai 2022 war er neben dem Open-AI-CEO Sam Altman und einer Vertreterin von IBM als Zeuge vor dem amerikanischen Senat geladen, zum Thema Regeln für KI.

Sprach-KI sei eine intransparente Blackbox, erfinde Fakten, sei nicht vertrauenswürdig, mahnte Marcus damals. Man befinde sich in einem historischen Moment: «Die Entscheidungen, die wir jetzt treffen, werden Konsequenzen für Dekaden, gar Jahrhunderte haben.»

«Ich fürchte, den Moment haben wir verpasst», sagt er heute. In den USA hat Präsident Donald Trump die wenigen Vorgaben zu KI abgeschafft, die sein Vorgänger Joe Biden eingeführt hatte. Riesige Investitionen in Datenzentren werden verkündet. Elon Musk macht Schlagzeilen mit seinem Angebot, Open AI zu kaufen. «Ich habe gehört, dass junge Menschen KI heute schon mehr vertrauen als Journalisten», sagt Marcus. «Doch KI verdient dieses Vertrauen einfach nicht. Ihre Antworten klingen klug, aber das Problem, dass sie Fakten erfindet, ist immer noch nicht gelöst.»

Es ist ein einsamer Kampf, den Gary Marcus führt. Sogar bei der kleinen Seitenveranstaltung, bei der er in Davos auftritt, ist der Tenor, dass KI vor allem eine wunderbare Chance sei. Seine Warnungen vor ihren Fehlern will keiner hören. Er selbst sagt, dass er diese Rolle nicht geniesse. Aber die Sache sei zu wichtig, um zu schweigen. Und er sei es gewohnt, gegen den Strom zu schwimmen.

Marcus hält rein statistische Intelligenz für unmöglich

Anders als die meisten KI-Unternehmer hat Marcus abseits von einem dreimonatigen Aufenthalt nie im Silicon Valley gelebt. Und auch fachlich gehört er zu einem anderen Menschenschlag. Marcus hat Psychologie studiert und 1993 eine Dissertation über Sprachentwicklung bei Kindern geschrieben.

Er spezialisierte sich auf das Konzept der Angeborenheit: der Idee, dass wir Menschen nicht alles aus Erfahrung lernen, sondern einige Konzepte über die Welt schon in unseren Gehirnen angelegt sind, wenn wir auf die Welt kommen. Diese Ansicht ist umstritten. Es gibt auch viele Wissenschafter, die überzeugt sind, dass der Mensch allein aus Daten lernt.

1999 veröffentlichte Marcus eine Studie in der Fachzeitschrift «Science». Sie zeigte, dass Babys mit sieben Monaten sich länger mit Sätzen beschäftigen, wenn diese neuartig aufgebaut sind. Marcus und seine Kollegen schliessen daraus, dass Babys schon nach wenigen Minuten Kontakt mit einer neuen Sprache Regeln ableiten können. Marcus wertet das als Hinweis dafür, dass im Kinderhirn Algorithmen wirken, welche Abstraktionen lernen, die über statistische Korrelationen hinausgehen.

Die Diskussion um Babys lässt sich auf Computer und KI übertragen. Manche Wissenschafter glauben, dass Intelligenz mit Statistik allein aus Daten abgeleitet werden kann. Sie werten die erstaunlichen Fähigkeiten von Chat-GPT als Beweis für ihre Sache.

Gary Marcus argumentiert genau umgekehrt. Auf Fehlern von Sprach-KI hackt er so herum, weil sie für ihn zeigen, dass KI anders und weniger effizient lernt als der Mensch.

Beim eingangs genannten Beispiel vom Unfall und vom Arzt rührt die Verwirrung der KI daher, dass dieses Rätsel im Internet oft vorkommt, allerdings in einer anderen Version. Im Original löst sich ein scheinbarer Widerspruch auf, wenn man versteht, dass hinter «doctor» eine Frau steckt.

Weil selbst die intelligenteste KI von Deepseek aus Beispielen lernt, ist sie damit überfordert, wenn die Frage ähnlich, aber anders auftaucht als aus dem Internet bekannt. Sie macht Fehler, die einem Menschen so nie passieren würden.

Marcus folgert daraus: Die heutigen Ansätze der KI reichen nicht aus, um eine echt intelligente Maschine zu bauen, so flexibel und verlässlich wie der Mensch – also das, was man auch allgemeine künstliche Intelligenz (AGI) nennt.

Mutmassungen über gestorbenen Open-AI-Whistleblower

Leute wie Sam Altman versprechen aber genau das. Bald sei AGI erreicht, dann werde KI Scharen von Fachkräften ersetzen. Das wäre natürlich revolutionär – das Versprechen rechtfertigt so die unglaublich hohen Investitionen in dem Bereich.

Gary Marcus glaubt, dass dieses Versprechen auf Sand gebaut ist. Die 500 Milliarden, die Open AI und andere im Projekt Stargate in Datenzentren stecken wollen, nennt er deshalb «Altmans Wette darauf, dass Kritik wie meine fehlgeleitet ist». Und er zählt auf, welche Wetten er bereits gewonnen habe: Dass es schwieriger als gedacht sein werde, selbstfahrende Autos zu bauen. Dass 100 Milliarden Dollar für noch grössere KI-Sprachmodelle nicht ausreichen würden, um allgemeine künstliche Intelligenz (AGI) zu bauen.

Man darf ihm glauben, wenn er sagt, dass ihm seine Aussenseiterrolle keinen Spass macht. Aber er hat sie doch zu seinem Markenkern gemacht. In Davos kann er keine 200 Meter gehen, ohne auf Fans zu treffen, die sich vorstellen wollen und ihn ermutigen, weiterzumachen. Einer fragt gar ehrfürchtig, ob er denn eigentlich manchmal Angst habe, nun, wo der Open-AI-Whistleblower Suchir Balaji tot aufgefunden worden sei.

Marcus sagt zu dem Fall: «Es braucht eine tiefere Untersuchung.» Er erzählt, dass er wenige Wochen vor dessen Tod einmal mit Suchir Balaji telefoniert habe. Sie hätten über Datenschutz und die Probleme von Open AI gesprochen, zu denen sich Balaji geäussert hatte. «Ich habe keine Anzeichen einer Depression bemerkt, sondern Anzeichen eines Menschen, der in der Welt etwas bewirken will.»

Es sei allzu schnell behauptet worden, es handle sich sicher um Suizid, findet er. «Suchir Balaji hat eine gründliche Untersuchung verdient.» Diese läuft im Moment offenbar noch, die forensischen Berichte sollten spätestens Ende Februar veröffentlicht werden. «Es gibt sicher Leute, die nicht glücklich über ihn waren.» Der Kommentar sagt viel darüber aus, wie heftig die Debatte um KI geführt wird.

Für AGI fehlen noch vier, fünf Durchbrüche

Dabei teilt Gary Marcus sogar das Ziel von Sam Altman und den anderen KI-Unternehmern. Er glaubt an AGI und daran, dass der Mensch sie bauen sollte. Er hat eine Idee für ein neues Startup in dem Bereich. Darin sollen die Methoden von Sprach-KI durch Algorithmen ergänzt werden, die andere Arten zu lernen ermöglichen – wie bei den Babys aus seiner Forschung.

Marcus ist nicht der Einzige, der glaubt, dass neue Ansätze nötig sind. Man kann auch die neuen Methoden von Modellen wie Deepseek in die Richtung interpretieren. Sie ergänzen Vorhersage mit mehr Kontrollmechanismen.

Gary Marcus ist aber überzeugt, dass für AGI noch «vier bis fünf wissenschaftliche Entdeckungen» fehlen. Zu einer Prognose gedrängt, sagt er, in zehn bis fünfzehn Jahren könnte es so weit sein. Klar sei, dass AGI dieses Jahr sicher nicht komme. Darauf hat er Elon Musk eine Wette über eine Million Dollar vorgeschlagen. Der ging nicht darauf ein.

Ein Artikel aus der «»

Exit mobile version