Ein CEO, der ein Klima der Angst schafft. Ein Grossinvestor, der bei den wichtigsten Entscheiden nichts zu sagen hat. Ein Verwaltungsrat, der von neuen Produkten über Twitter erfährt. Open AI, eine der einflussreichsten KI-Firmen der Welt, wird offenbar ausserordentlich schlecht geführt.

Als Sam Altman im vergangenen November beinahe seinen Job verlor, war die Welt auf seiner Seite. Der Verwaltungsrat von Open AI hatte dem CEO Altman von einem Tag auf den anderen gekündigt, weil er «nicht immer ehrlich» gewesen sei. Ein Schock für die Öffentlichkeit: Ausgerechnet der Mann sollte entlassen werden, der Chat-GPT lanciert hatte und trotz dem grossen Erfolg immer bescheiden aufgetreten war?

Bei vielen Beobachtern schien schnell klar, dass Altman das Opfer in dieser Affäre sei: untergraben von Schwarzmalern im Verwaltungsrat von Open AI, die aus Angst vor mächtiger künstlicher Intelligenz (KI) in Aktionismus verfielen.

Für diese Interpretation sprach, dass sich über 90 Prozent aller Angestellten von Open AI in einem offenen Brief für die Rückkehr Altmans aussprachen, die ihm nach ein paar Tagen auch gelang. Danach wurde der Verwaltungsrat grossteils ausgetauscht. Die Geschichte geriet in den Hintergrund, während Open AI mit immer neuen Produkten seine Rolle als Marktführer in generativer KI ausbaute.

Jüngste Entwicklungen lassen die Episoden von November 2023 jedoch in einem neuen Licht erscheinen und werfen die Frage auf, ob die Zukunft der künstlichen Intelligenz bei Open AI in guten Händen liegt. Sind die Kontrollen und Prozesse im Unternehmen so gut, wie man das von einem Unternehmen mit potenziell gefährlichen Produkten erwarten würde? Hatte der Verwaltungsrat vielleicht doch recht, als er Altman das Vertrauen entzog?

Der Verwaltungsrat erfuhr von Chat-GPT über Twitter

Argumente dafür bringt Helen Toner ein. Sie war Teil jenes Verwaltungsrats, der Altman kündete. Sie äusserte sich Ende Mai erstmals öffentlich zu den Vorgängen im vergangenen Herbst. In einem Podcast beschreibt sie Altman als manipulativen CEO. Für Jahre habe er dem Verwaltungsrat Informationen vorenthalten, in manchen Fällen habe er das Gremium «geradeheraus angelogen».

Als Beispiel nannte sie die Lancierung von Chat-GPT im Herbst 2022: Altman habe den Verwaltungsrat nicht im Voraus darüber informiert. «Wir erfuhren von Chat-GPT über Twitter», sagte Toner.

Schlechte Kommunikation vonseiten des CEO ist bei jeder Firma problematisch, denn sie erschwert dem Verwaltungsrat, seine Aufgabe wahrzunehmen. Bei Open AI kommt dazu, dass der Verwaltungsrat eine besonders verantwortungsvolle Aufgabe hat: Toner und ihre Kollegen sollten nicht für die Interessen von Aktionären, sondern für jene der ganzen Menschheit einstehen, so steht es in den Statuten des Unternehmens.

Altman schafft ein Klima der Angst

Toner sagt, Altman habe die Arbeit des Verwaltungsrats torpediert, indem er mehrmals unzutreffende Informationen über die Sicherheitsprozesse von Open AI gegeben habe. Zudem habe er die anderen Verwaltungsratsmitglieder angelogen, um Toner aus dem Gremium zu drängen. Irgendwann war das Vertrauen zwischen Verwaltungsrat und CEO so stark beschädigt, dass sich das Gremium zur Entscheidung durchrang, Altman zu entlassen.

Dass damals über 90 Prozent der Belegschaft Altmans Rückkehr forderten, wertet Toner als Produkt aus Angstmacherei und Gruppendruck. Den Angestellten seien damals nur zwei Alternativen vermittelt worden: Entweder zerbreche die Firma, oder Altman kehre zurück. Viele Angestellte hätten den offenen Brief zur Unterstützung Altmans unterzeichnet, um ihren Job zu behalten.

Altman habe generell ein Klima der Angst geschaffen, in dem Angestellte davor zurückschreckten, Kritik an ihm zu äussern. Toner berichtet von Gesprächen, die sie mit Führungspersonen innerhalb von Open AI gehabt habe. Diese sollen gesagt haben, Altman schaffe eine «toxische» Unternehmenskultur und strafe Personen ab, die es wagten, ihm negatives Feedback zu geben. Eine Person habe Altmans Verhalten gar als «psychologischen Missbrauch» bezeichnet.

Sicherheitsforscher verlassen Open AI und warnen

Darauf, dass bei Open AI einiges im Argen liegt, deuten auch diverse Kündigungen hin. Der bekannteste Abgänger ist Ilya Sutskever, ein Mitgründer von Open AI. Er leitete das sogenannte Superalignment-Team, das vor rund einem Jahr dafür gegründet worden war, sicherzustellen, dass die KI tatsächlich im Dienste der Menschheit arbeitet, und dem 20 Prozent der Rechenpower des Unternehmens zugesichert worden war.

Jan Leike, der das Team mit Sutskever geleitet hatte, kündete ebenfalls und beklagte öffentlichkeitswirksam, die Sicherheit würde bei Open AI zu wenig gewichtet. Das Superalignment-Team wurde inzwischen aufgelöst.

Trotzdem bleiben kritische Worte von ehemaligen Angestellten selten – inzwischen weiss man, warum: Die meisten haben strenge Non-Disclosure-Agreements unterzeichnet, die es verbieten, sich öffentlich über Open AI zu äussern.

Das wurde dank Daniel Kokotajlo bekannt, einem weiteren Sicherheitsforscher, der Open AI verlassen hat. Er unterschrieb den Maulkorb-Vertrag nicht, um weiter offen über die Firma reden zu können – womit er Firmenanteile im Wert von etwa 1,7 Millionen Franken riskierte.

Seitdem hat er mit anderen ehemaligen und gegenwärtigen Angestellten von Open AI und Google in einem offenen Brief besseren Schutz für Angestellte gefordert, welche Bedenken über die sichere Entwicklung von KI in ihrem Unternehmen haben.

Die Unterzeichner scheinen überzeugt davon, dass Wettbewerb- und Gruppendruck so gross sind, dass kritische Angestellte besonderen Schutz brauchen.

Wer kontrolliert den CEO`?

Auch externe Experten äussern sich kritisch über Open AI. Dan Ives, Direktor und Finanzmarktanalyst bei der amerikanischen Investmentfirma Wedbush, sagte gegenüber der NZZ, er bezweifle, dass Open AI funktionierende «checks and balances» habe, um potenzielles Fehlverhalten des Chefs auszugleichen. «Sam Altman reisst mehr und mehr Macht an sich. Die Firma braucht dringend effektivere Kontrollmechanismen.»

Ob Altman, der zusätzlich zu seinem Posten als CEO auch einen Sitz im Verwaltungsrat von Open AI hat, seine Machtfülle tatsächlich auf schädliche Weise ausnützt, ist unklar. Möglich wäre auch, dass sich ehemalige Angestellte und ehemalige Verwaltungsratsmitglieder wie Helen Toner an ihm rächen wollen. Unabhängige Untersuchungen zum Führungsstil von Altman sind nicht bekannt. Allerdings gibt es eine Episode um den neusten Produkt-Launch, die problematisches Verhalten des Chefs vermuten lässt.

Als Mitte Mai Chat-GPT 4.o veröffentlicht wurde, stellte Open AI auch eine Audiofunktion vor: Das Modell kann mit gesprochener Sprache antworten. Und offenbar hat Altman dafür gesorgt, dass Chat-GPT eine Stimme verwendet, die ihm besonders gut gefällt.

Hintergrund ist eine persönliche Vorliebe von Altman für den Film «Her». Er hatte ihn als als «prophetisch» für die Art und Weise bezeichnet, wie Menschen künftig mit KI interagieren würden. Im Film verliebt sich ein Mann in ein Computersystem. Die Schauspielerin Scarlett Johansson spricht im Film die Stimme des Computers. Als Chat-GPT 4.o publiziert wurde, postete Altman den Titel des Filmes auf X: «Her», ohne weitere Erklärung. Tatsächlich klang die Stimme in den Demo-Videos wie Johansson.

Danach liess die Schauspielerin über Instagram mitteilen, Altman habe vor dem Launch des Modells mehrmals persönlich versucht, sie davon zu überzeugen, ihre Stimme für Chat-GPT freizugeben. Doch Johansson entschied sich dagegen. Umso mehr überrascht und verärgert war sie, ihre Stimme trotzdem in der Demo von Chat-GPT zu erkennen.

Starker CEO braucht starke Mitglieder im Verwaltungsrat

Inzwischen hat Open AI die besagte Stimme offline genommen. Trotzdem stellt sich die Frage, ob Altman funktionierende Gegengewichte hat, die ihn kontrollieren.

«Firmen wie Open AI, die einen sehr starken und bekannten CEO haben, brauchen starke und unabhängige Persönlichkeiten im Verwaltungsrat», sagt Christine Scheef, Assistenzprofessorin an der Universität St. Gallen, die zu Corporate Governance forscht. «Sonst ist die Gefahr gross, dass der Verwaltungsrat zu einem Ja-Sager-Gremium verkommt, das seine Kontrollaufgabe nicht ausreichend wahrnimmt.»

Tatsächlich sassen bis im März nur drei Personen im Verwaltungsrat von Open AI. «Das waren sehr wenige für eine solche Firma», sagt Scheef. «Es braucht Leute, die sich getrauen, Altman zu widersprechen. Und Leute, die sich, wenn es nötig wird, ohne seine Einwilligung im Unternehmen umhören.»

Dies scheint Open AI erkannt zu haben. Seit März wurden mehrere starke Persönlichkeiten in den Verwaltungsrat berufen:

  • Paul Nakasone, ein Ex-General und der bisherige Leiter des Auslandsgeheimdienst der USA (NSA).
  • Sue Desmond-Hellmann, die ehemalige CEO der Bill & Melinda Gates Foundation.
  • Fidji Simo, Unternehmerin und ehemalige hochrangige Facebook-Managerin.
  • Und die Spitzenanwältin Nicole Seligman.

Insgesamt hat der Verwaltungsrat nun sieben Mitglieder mit Stimmrecht. «Das ist eine gute Zahl», findet Scheef. «Jetzt können sich die Verwaltungsräte ihre Aufgaben sinnvoll aufteilen.»

Wenig Sinn ergibt laut dem Finanzanalysten Ives allerdings die Tatsache, dass Microsoft, der grösste Geldgeber der Firma, nur einen Beobachtersitz hat im Verwaltungsrat, aber kein Stimmrecht. Damit können wichtige strategische Entscheide entgegen dem Willen des grössten Geldgebers geschehen. Sowohl Scheef wie auch Ives finden, Microsoft sollte das Stimmrecht erhalten.

Unübliche Non-Profit-Struktur

Weiteres Verbesserungspotenzial besteht bei der Struktur des Unternehmens. Diese ist historisch gewachsen. 2015 gründete eine Gruppe um Sam Altman, Elon Musk und Peter Thiel Open AI als nicht profitorientierte Organisation (NPO) mit der Mission, eine generelle künstliche Intelligenz zu entwickeln, die «sicher ist und der gesamten Menschheit zugutekommt».

Doch weil die NPO zu wenig Geld eintreiben konnte, um die teuren KI-Dienste zu entwickeln, gründete sie im Jahr 2019 ein gewinnorientiertes Tochterunternehmen, in das Microsoft insgesamt 13 Milliarden Dollar investierte.

Zwar ist die gewinnorientierte Tochterfirma auf dem Papier zu hundert Prozent der NPO unterstellt. Aber aus der ungewöhnlichen Struktur folgen immer wieder Interessenkonflikte.

Die NGO will bremsen, die gewinnorientierte Firma prescht vor

Die NPO hat die Mission, KI vorsichtig und zum Wohle der Menschheit zu entwickeln. Zugleich treibt die profitorientierte Firma die KI-Entwicklung voran, indem sie ein Modell nach dem anderen veröffentlicht. Bedenken darüber, dass Chatbots auch missbraucht werden können, etwa für Desinformationskampagnen oder für Falschinformationen, schob Open AI beiseite.

Geschäftlich funktioniert das hervorragend, Analysten schätzen den Wert der Firma heute auf über 80 Milliarden Dollar. Zum Vergleich: Die Zurich-Versicherung ist etwa 70 Milliarden wert.

Der Finanzmarktanalytiker Ives findet nun, die ungewöhnliche Non-Profit-Struktur passe nicht mehr zum Verhalten von Open AI: «Die Firma ist heute de facto ein gewinnorientiertes Unternehmen mit einer Non-Profit-Vergangenheit.»

Einen einfachen Ausweg aus dieser Situation gebe es wahrscheinlich nicht, vermutet die Corporate-Governance-Expertin Scheef. «Non-Profit-Organisationen können aus rechtlichen Gründen normalerweise nicht einfach in normale Firmen umgewandelt werden.» Sonst würden frühe Geldgeber hintergangen, die explizit eine Non-Profit-Organisation finanzieren wollten.

Aus der komplizierten, unüblichen Struktur dürfte Open AI also nicht so schnell herauskommen, obwohl Sam Altman laut dem amerikanischen Tech-Portal «The Information» mit der Idee liebäugelt, die gewinnorientierte Firma aus der Non-Profit-Struktur herauszulösen.

Derweil mehren sich die Stimmen, die davor warnen, dass KI zu wichtig ist, als dass man ihre Entwicklung Firmen überlassen sollte, die sich selbst regulieren – zumal bei Open AI, dem gegenwärtigen Branchenprimus, offenbar einiges nicht so funktioniert, wie es sollte.

KI-Firma Anthropic zeigt: Es ginge auch anders

Dass KI-Firmen auch besser strukturiert und geführt werden könnten als Open AI, zeigt Anthropic, die Firma hinter dem Chatbot namens Claude.

Bei Anthropic gibt es ein externes Gremium aus Personen ohne finanzielle Interessen an der Firma. Dieses Gremium darf Mitglieder des Verwaltungsrats bestimmen. Im Moment darf es einen von fünf Sitzen vergeben. Später soll es die Mehrheit aller Sitze im Verwaltungsrat sein. Die restlichen Verwaltungsräte vertreten die Interessen der Geldgeber.

Damit hat Anthropic zwar auch eine unübliche Struktur. Aber im Vergleich zu Open AI steht dem Gewinnstreben von Anthropic keine Non-Profit-Organisation im Weg. Über das externe Gremium soll derweil sichergestellt werden, dass nicht nur Gewinnmaximierer im Verwaltungsrat sitzen, sondern auch Leute, die sich für die gesellschaftlichen Konsequenzen von KI interessieren.

Exit mobile version