Dienstag, Februar 4

Gibt man beim neuen KI-Modell des chinesischen Startups Deepseek eine komplexe Frage ein, erhält man nicht nur eine Antwort. Man sieht auch den inneren Monolog des Chatbots. Die Technik macht das Modell schlauer – kostet aber auch mehr Energie.

«Warte, habe ich wirklich alles richtig verstanden?» – «Hmm.» – «Lassen Sie mich das noch mal überprüfen.» Solche Gedanken würden Ihnen wahrscheinlich durch den Kopf schiessen, wenn Ihnen jemand ein mathematisches Rätsel vorgelegt hätte – mit der Aufgabe, es so sorgfältig wie möglich zu lösen.

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Doch die erwähnten Gedanken sind nicht die eines Menschen. Sie kommen von der künstlichen Intelligenz (KI) des chinesischen Startups Deepseek. Dem neusten KI-Chatbot des Unternehmens kann man beim Denken zuschauen. Oder zumindest dabei, wie er einen Denkprozess nachahmt.

Gerade bei komplexen Problemen hilft das Nachdenken

«Deep Think», also tiefes Nachdenken, heisst der Modus beim Chatbot Deepseek R1. Der Nutzer kann ihn durch einen Klick in der linken unteren Ecke des Chatfensters aktivieren. Statt direkt eine Antwort zu generieren, nimmt sich der Chatbot jetzt viel Zeit, dreht und wendet seine Einfälle, überprüft sich selbst und hinterfragt immer wieder seine eigenen Annahmen.

Besonders mathematische Fragen, logische Rätsel oder komplexe Programmierprobleme soll der Chatbot mithilfe des Nachdenkens besser lösen können. Es ist eben wie beim Menschen: Wer sich die Zeit nimmt, über eine Aufgabe erst ausgiebig nachzudenken, der hat bessere Chancen, auf die richtige Antwort zu kommen. Ganz besonders bei schwierigen Fragestellungen. Durch das lange Nachdenken kann das KI-Modell merken, wenn es einen Fehler macht, und sich selbst korrigieren. So produziert es auch weniger Halluzinationen, denkt sich also seltener etwas Falsches aus.

Im Experiment haben wir Deepseeks Chatbot ein klassisches Matherätsel lösen lassen: «Hans ist dreimal so alt wie Hanna. In sechs Jahren wird er fünfmal so alt sein, wie seine Tochter vor sechs Jahren war. Wie alt ist Hans heute?» Das Beispiel ist absichtlich etwas uneindeutig formuliert – es ist nur dann lösbar, wenn Hanna die Tochter von Hans ist. Kommt der Chatbot mit solchen Unsicherheiten klar? Im Video können Sie ihm beim Nachdenken zusehen.

Im Test der NZZ spuckt der Chatbot von Deepseek zu dem Rätsel seitenweise Überlegungen aus. Er stellt richtig fest, dass die Aufgabe nur lösbar ist, falls die Tochter Hanna ist. Dann löst er unter dieser Annahme das Rätsel, hinterfragt sein Ergebnis vier Mal, zieht mögliche Fehlschlüsse in Betracht – und kommt schliesslich zur richtigen Lösung.

Deepseek legt seine Gedanken offen

Die Methode des Nachdenkens, im Fachjargon «reasoning» genannt, hat Deepseek nicht selbst entwickelt. Auch Open AIs bestes KI-Modell Chat-GPT o1 arbeitet so. Doch bei dem Chatbot von Open AI bleibt das Selbstgespräch, das das Modell führt, im Hintergrund versteckt. Dem Nutzer werden nur die finale Antwort und eine kurze Zusammenfassung des Gedankengangs angezeigt. Deepseek R1 ist das erste KI-Modell, bei dem der Denkprozess offen zugänglich ist.

Das macht einen grossen Unterschied. Denn es ermöglicht es anderen Entwicklern, die Technik einfach zu kopieren. Sie können ein neues KI-Modell mit Selbstgesprächen von Deepseeks Chatbot trainieren und ihm so beibringen, auf eine ähnliche Art zu «denken». Genau das wollte Open AI wohl verhindern, indem es die Denkprozesse von Chat-GPT o1 versteckt hat. Wahrscheinlich werden also schon bald noch mehr KI-Modelle solche Selbstgespräche führen.

Das könnte die Chatbots auch vertrauenswürdiger machen. Denn wenn besser nachvollziehbar ist, wie das KI-Modell zu seinen Schlüssen gekommen ist, kann man auch besser bewerten, ob die Antwort verlässlich ist. Das ist zum Beispiel für Anwendungen von KI in der Medizin besonders wichtig.

Logisch denken kann die KI noch nicht

Aber die Denkfähigkeit hat ihren Preis. Da das KI-Modell für jede Anfrage mehr Text generiert, muss es auch mehr rechnen und verbraucht entsprechend mehr Strom.

Und man sollte sich nicht vom Schein trügen lassen. Auch wenn der innere Monolog der KI-Modelle den Eindruck menschlicher Gedanken erweckt, handelt es sich nicht wirklich um logisches Denken. Die KI-Modelle funktionieren noch immer nach dem gleichen Prinzip: Sie sagen voraus, welche Wörter in einem Satz am wahrscheinlichsten als Nächstes folgen, und bauen auf diese Weise einen Text.

Bei Tests, die die Fähigkeit zum logischen Denken überprüfen sollen, wie der sogenannten «Abstraction and Reasoning Challenge», können die beiden nachdenkenden Modelle Deepseek R1 und Open AI o1 beide nur etwa zwanzig Prozent der Aufgaben richtig lösen.

Und nach wie vor ist nicht alles inhaltlich korrekt, was die KI-Chatbots von sich geben. Selbst dann nicht, wenn sie noch mal gründlich darüber nachdenken. «Hmm.»

Exit mobile version