Er hat die Firma hinter Chat-GPT mitgegründet und leitete die Forschung für langfristige Sicherheit. Doch seine Ziele und die von Sam Altman gingen immer weiter auseinander.

Ilya Sutskever und Sam Altman haben nie so richtig zusammengepasst. Sutskever ist ein nerdiger Forscher, der sich vor allem um die langfristige Sicherheit der Menschheit sorgt. Sam Altman ist ein selbstbewusster Investorenliebling, der die Gefahren von künstlicher Intelligenz (KI) zwar erwähnt, aber immer nur, um im nächsten Satz zu beruhigen, dass Open AI sehr verantwortungsvoll vorgehe. Er warnt vor der Macht von KI, setzt sich aber gegen strenge Regulierung ein.

Im Jahr 2015 schienen die beiden noch die selben Ziele zu haben. Sutskever und Altman gründeten Open AI gemeinsam mit anderen KI-Experten und Unternehmern als gemeinnütziges Startup, weil sie künstliche Intelligenz für zu wichtig hielten, um ihre Entwicklung allein den grossen Tech-Unternehmen zu überlassen. Oberstes Ziel sollten nicht Profite, sondern das Wohlergehen der Menschheit sein.

Nun gründet Sutskever ein Konkurrenzunternehmen zu Open AI, mit einem sehr ähnlichen Ziel. Die neue Firma mit dem Namen Safe Superintelligence wolle eine ungefährliche hochentwickelte Künstliche Intelligenz bauen, kündigte Ilya Sutskever am Mittwoch an.

Ilya Sutskever beteiligte sich erst am Rauswurf vom Altman

Open AI sich hat von seinem ursprünglichen Ziel über die Jahre schrittweise verabschiedet. Die Forschung war teurer und das Geld knapper geworden, weswegen man sich 2019 dafür entschied, mit einem profitorientierten Tochterunternehmen neue Investoren an Bord zu holen. Microsoft stieg mit einer Milliarde Dollar ein. Der Rest ist Geschichte: 2022 wurde Open AI mit der Veröffentlichung des Chatbots Chat-GPT weltbekannt und hält die Öffentlichkeit seitdem mit immer neuen Produkten in Bann.

Doch während der CEO Sam Altman sich an der Entwicklung freute, wuchsen bei jenen die Bedenken, die immer noch am ursprünglichen Ziel des Startups interessiert waren: nicht nur Sprach-KI zu entwickeln, sondern eine künstliche Intelligenz, die menschliche Fähigkeiten übertrifft und selbständig forschen und sich weiterentwickeln kann.

Diese Vision nennt man auch allgemeine künstliche Intelligenz oder Superintelligenz. Die grosse Frage, wie so ein System bauen kann und dabei garantieren, dass so es der Menschheit nicht schadet, beschäftigt Sutskever seit jeher.

Der Konflikt eskalierte vergangenen Herbst mit dem Rauswurf von Sam Altman, an dem auch Ilya Sutskever beteiligt war. Er äusserte sich aber bald nachher reumütig, was auch bei Sam Altmans Wiedereinstellung nach wenigen Tagen eine Rolle gespielt haben dürfte. Was genau hinter alldem steckte, ist bis heute nicht klar, wobei sich die Anzeichen für einen schlechten Führungsstil von Altman mehren.

Ilya Sutskever blieb vorerst in seiner Position als Co-Leiter des Teams für Superalignment, dessen Zweck war, innert vier Jahren herauszufinden, wie man KI Systeme, die «intelligenter als wir» sind, «lenken und kontrollieren» kann.

Die neue Firma will sich kommerziellem Druck entziehen

Die Frage, ob KI-Systeme gefährlich für die Menschheit werden könnten, wenn sie erst einmal leistungsstärker und eigenständiger sind, beschäftigt die Branche schon seit Jahren. Manche Experten, darunter der KI-Pionier Geoffrey Hinton, nehmen sie sehr ernst. Hinton war Ilya Sutskevers Doktorvater. Andere halten diese Bedenken für sehr futuristisch und überbewertet und setzen sich dafür ein, mehr auf konkrete Schäden durch KI, wie Desinformation oder Diskriminierung, zu achten.

Open AI wollte immerhin 20% der Rechenpower in diesen Bereich investieren, hiess es bei der Ankündigung des Superalignment-Teams vor einem Jahr. Doch offenbar waren die Forscher dort nicht zufrieden. Sutskever kündete vor etwa einem Monat, andere Sicherheitsforscher folgten. Darunter Sutskevers Kollege Jan Leike, der öffentlich beklagte, bei Open AI müssten Sicherheitsdenken glitzernden Produkten weichen.

Sutskever gründet seine neue Firma Safe Superintelligence gemeinsam mit Daniel Gross, der bei Apple zu KI gearbeitet hat und heute Investor und Unternehmer ist, und Daniel Levy, der wie Sutskever bei Open AI tätig war.

Die Gründer wollen vermeiden, dass sich die Geschichte von Open AI wiederholt. Sutskever sagte dem Finanzdienst Bloomberg: «Das Besondere an dem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird – und es davor nichts anderes herausbringen wird.» So werde man sich kommerziellem Druck und einem Wettlauf mit anderen KI-Laboren entziehen, argumentiert der Forscher. Wie sich Sutskevers neues Superintelligenz-Labor finanzieren wird, ist bisher unklar.

Mit Agenturmaterial

Exit mobile version