Deepseek hat die Kräfte im Wettbewerb um die KI verschoben. Das weckt Hoffnungen bei Schweizer Startups und Universitäten.
Die USA erleben in diesen Tagen einen Sputnik-Moment. Ihre Vorreiterrolle bei der KI ist plötzlich infrage gestellt. Der Grund: Aus China kam ein KI-Modell namens Deepseek, das gleich gut ist wie das Topmodell des Branchenführers Chat-GPT, aber angeblich zu einem Bruchteil der Kosten entwickelt wurde – und gratis genutzt werden kann.
Deepseek hat die alte Ordnung umgewälzt. Das spürt auch die Schweiz. Denn wenn Sprachmodelle günstiger werden, sinken die Eintrittshürden. Der KI-Unternehmer Pascal Kaufmann, der bereits 2010 in der Schweiz ein erstes selbstlernendes Wissensnetzwerk gründete, sagt: «Wenn sich zwei Grossmächte streiten, kann sich ab und an auch ein Dritter freuen.»
Alexander Ilic leitet das AI Center an der ETH. Dieses baut zusammen mit der EPFL und anderen Schweizer Universitäten derzeit an einem Supercomputer im Tessin ein KI-Sprachmodell, ein Schweizer Pendant zu Chat-GPT. Ilic sagt: «Der Wettbewerb um die KI ist noch nicht entschieden. Wir stehen noch ganz am Anfang.» Für Ilic ist die gegenwärtige Situation nicht mehr nur ein Rennen zwischen den USA und China. Dass es nun günstigere Modelle wie Deepseek gebe, habe die Technologie demokratisiert, allen zugänglich gemacht. Das bietet die Möglichkeit, Verpasstes nachzuholen. Doch wie diese Chance nutzen? Das ist die Frage, welche gerade die Schweizer Universitäten und Startups beschäftigt.
Die Hemmschwelle, KI einzusetzen, wird tiefer
Der Markt für KI-Sprachmodelle ist schnelllebig. Derzeit befinden sich neben Deepseek noch vier andere chinesische Firmen im weltweiten Ranking auf Toppositionen. Die Liste ändert sich ständig. Auf Deepseek werden günstigere und bessere Dienste folgen.
Alexander Ilic vergleicht die gegenwärtige Situation mit dem Aufkommen des Internets. Zuerst seien die Vorreiter diejenigen Firmen gewesen, die den Internetanschluss und den Browser gehabt hätten. «Irgendwann hatten alle einen Internetzugang. Dann ging es darum, was man damit macht – also darum, ob man ihn zum Beispiel für E-Commerce nutzt.» Ein Drittel der heutigen Geschäftsmodelle seien erst mit dem Internet aufgekommen.
In der Schweiz haben viele Startups ihr Geschäftsmodell auf KI aufgebaut. So auch das von Martin Keller. Er ist Gründer und CEO des Schweizer Startups Acodis, das mithilfe von KI Geschäftsdokumente aufbereitet. Er sagt: «Weil die Kosten für generative KI-Modelle jetzt sinken, ist für Schweizer Firmen die Hemmschwelle tiefer, KI einzusetzen.»
Für Startups werde es in Zukunft günstiger und einfacher, KI-Anwendungen zu entwickeln. Gleichzeitig werde nun der Wert von unternehmensinternen Daten steigen, die in die KI eingespeist würden.
Auch Raphael Toblers Startup Eduwo arbeitet mit KI, die Firma gibt personalisierte Empfehlungen für Weiterbildungen. Tobler kennt sich in der Schweizer Startup-Szene aus, er ist Präsident der Schweizer Startup Association. Er sagt: «Deepseek ist eine grosse Überraschung gewesen.» Firmen weltweit sähen jetzt, was möglich sei. Es werde mehr Wettbewerb geben, tiefere Preise, eine grössere Auswahl von Modellen. «Das ist von Vorteil für Schweizer Startups.»
In Toblers Firma werde Deepseek gerade intensiv diskutiert: «Unser IT-Team prüft derzeit, ob wir von Chat-GPT auf das günstigere Deepseek umstellen sollten.» Denn die KI-gesteuerten Vorgänge seien teuer: Sucht man auf der Website etwa nach einem Dienstagabendkurs für Buchhaltung in Winterthur, filtert eine automatisierte Suche die Datenbank nach passenden Kursen, die Software zeigt einem ein Resultat an. Die Abläufe im Hintergrund übernimmt die KI. Genauer gesagt: Chat-GPT.
«Wir bezahlen für Chat-GPT pro Anfrage, wir haben kein Flatrate-Modell», sagt Tobler. Je mehr Anfragen bei ihnen hereinkämen, desto mehr Geld müssten sie an Open AI zahlen. Mit einem günstigeren Modell könnten sie sparen. Er will aber nichts überhasten: «Ich habe noch viele Fragen dazu, wie gut Deepseek wirklich ist. Wir wollen noch abwarten, bis klar ist, wie transparent das Modell ist und wie viel auf Zensur basiert.»
Riskant für Geschäftsanwendungen, lehrreich für die Forschung
Er ist nicht allein mit seiner Angst vor den Verbindungen Deepseeks zum chinesischen Staat. Wie vertrauenswürdig ist das Unternehmen? Die einen loben, dass es seine Funktionsweise offengelegt habe. Die anderen fürchten die Einflussnahme der Behörden auf das Modell. Ilic von der ETH gehört zu den Skeptikern. Er sagt: «Mit welchen Datensätzen das Modell trainiert wurde, welche ideologischen Komponenten als Voraussetzungen eingebaut wurden, ist unklar. Das ist ein Sicherheitsrisiko.»
So legt Deepseek zwar seine Methodik offen, aber nicht seine Trainingsdaten. Ilic sagt: «Für die Forschung kann es lehrreich sein, mit Deepseek zu experimentieren. Für Geschäftsanwendungen rate ich aber davon ab.»
Trotz diesen Vorbehalten ist Deepseek transparenter als die gängigen Modelle wie Chat-GPT, Gemini oder Claude. Für die Schweizer Forschung sei Deepseek hilfreich, sagt Martin Volk. Er ist Professor für Computerlinguistik an der Universität Zürich und hat vor zehn Jahren die KI-Übersetzungs-Firma Textshuttle gegründet. Er sagt: «Wir haben viel mit KI-Modellen geforscht und untersucht, wie diese lernen. Aber solange sie eine Blackbox sind, stochert man im Dunkeln. Für uns Forscher ist das unbefriedigend.»
Bei Deepseek seien die Algorithmen und Baupläne einsehbar, man habe mehr Anknüpfungspunkte. Volk sagt auch: «Ich habe lange darauf gehofft, dass so ein neues offenes Modell wie Deepseek kommt.»
«Es ist entscheidend, dass wir jetzt loslegen»
Die Vertrauenswürdigkeit von Deepseek mag umstritten sein. Doch die Schweizer Universitäten, die mit einem Supercomputer im Tessin zusammen das Schweizer KI-Sprachmodell entwickeln, sind vom Erfolg von Deepseek ermutigt: Dieser zeigt, dass es kein Nachteil sein muss, spät ins Rennen einzusteigen.
Martin Jaggi vom beteiligten Labor für Machine Learning der EPFL sagt: «Deepseek hat sein Vorgehen in bisher 14 Papers öffentlich dokumentiert. Wir studieren diese auch in der Schweiz genau.» Weil die Schweizer Forscher im eigenen Projekt noch das Basismodell trainierten, ändere sich am Vorgehen vorerst zwar nichts. Doch wenn es darum gehe, darauf aufbauend ein sogenanntes Reasoning-Modell zu entwickeln, könnten die neuen Erfahrungen von Deepseek allenfalls einfliessen, so Jaggi. Reasoning erlaubt den Modellen, flexibler auf neue Problemstellungen zu reagieren.
Ilic sagt zum Schweizer KI-Sprachmodell: «Noch in diesem Halbjahr soll das Basismodell stehen.» Man habe jetzt die nötigen Werkzeuge, noch sei alles offen. Doch: «Es ist entscheidend, dass wir jetzt loslegen.»
Ein Artikel aus der «»