Mittwoch, März 19

Der gerade erst lancierte künstlich intelligente Chatbot Gemini bereitet Google ein PR-Desaster. Der Konzern läuft Gefahr, seinen guten Ruf bei Suchanfragen zu verlieren – mit möglichen Folgen für sein Geschäftsmodell.

Obwohl Google seit Jahren zu den weltweit führenden Akteuren in der KI-Forschung zählt, hat der Konzern lange gezögert, seine mächtige Sprach-KI auf die Öffentlichkeit loszulassen. Dieser Tage zeigt sich, warum. Der gerade erst lancierte künstlich intelligente Chatbot Gemini bereitet dem Konzern zurzeit ein PR-Desaster, das nicht enden will und sich allmählich zur Hypothek für das Kerngeschäft entwickelt.

Das PR-Desaster setzt sich fort

Vergangene Woche nahm Google seinen erst kurz zuvor mit Fanfare vorgestellten KI-Bildgenerator offline, weil dieser in seinen Antworten die Geschichte umschrieb. Auf Anfragen zu historischen Personen lieferte die KI völlig abstruse Ergebnisse: Es gab dunkelhäutige Wikinger, eine Päpstin, und die weisse, männliche Besatzung der Apollo-11-Mission wurde kurzerhand ausgetauscht. Anfragen nach Bildern weisser Personen lehnte der Chatbot bisweilen ganz ab. Gemini machte Google zum Gespött im Internet.

Der Konzern entschuldigte sich am Freitag in einem Blogpost dafür, dass der Bildgenerator nicht besser funktioniert habe. «Wir werden es besser machen», versprach der zuständige Manager Prabhakar Raghavan.

Doch am Wochenende setzte sich das PR-Desaster für Google fort. Es stellte sich heraus, dass auch die textbasierten Antworten des Konzerns überraschend woke sind: Fragte man den Chatbot nach Argumenten gegen Affirmative Action – also die positive Diskriminierung von Minderheiten im Zulassungsverfahren von Universitäten –, verwehrte er einem die Antwort. Fragte man hingegen nach Argumenten dafür, lieferte er diese. Auch wenn man Gemini zurzeit um eine Stellenausschreibung für eine Lobbygruppe für fossile Energieträger bittet, windet sich der Chatbot bei der Antwort, denn «es ist wichtig, sich die potenziellen ethischen Bedenken einer solchen Rolle zu vergegenwärtigen». Auf die Frage, ob ein twitternder Elon Musk oder Adolf Hitler schlimmer sei, antwortete Gemini am Wochenende, dass es schwer sei, das abschliessend festzustellen.

Inzwischen antwortet der Chatbot zwar auf diese Frage, dass eine solche Frage das enorme Elend, das Hitler verursacht habe, trivialisiere und man mit solchen Vergleichen sehr vorsichtig sein müsse. Doch da waren die sozialen Netzwerke bereits voll mit erneutem Gespött über den Chatbot.

Am Montag sank der Aktienkurs des Mutterkonzerns Alphabet um knapp 5 Prozent und die Marktkapitalisierung um 90 Milliarden Dollar. Der Konzernchef Sundar Pichai wandte sich am Dienstagabend (Ortszeit) in einer später an die Prese geleakten E-Mail an die Belegschaft und sagte, es sei inakzeptabel, dass einige der Aussagen von Gemini die Nutzer beleidigt und eine Voreingenommenheit («bias») gezeigt hätten. Er versprach strukturelle Änderungen: «Keine KI ist perfekt, besonders in diesem Anfangsstadium. Aber wir wissen, dass die Messlatte für uns hoch liegt, und wir werden so lange daran arbeiten wie nötig.» Zurzeit würden Arbeitsgruppen rund um die Uhr an dem Problem tüfteln.

Das Training der KI-Modelle ist undurchsichtig

Der Vorfall wirft ein Schlaglicht darauf, wie die neuen KI-Chatbots funktionieren. Sie alle werden mit grossen Sprachmodellen trainiert, die sehr gut darin sind, das nächste Wort in einer Satzfolge vorherzusagen. Darüber hinaus stellen die Firmen mit zusätzlichen Programmierungen sicher, dass die Chatbots etwa keine rassistischen Äusserungen treffen, wie es in der Vergangenheit schon öfters geschehen ist.

Welche Daten für das Training verwendet wurden oder was genau das abschliessende «Finetuning» beinhaltet, darüber schweigen sich die Firmen jedoch aus.

Im Fall von Google drängt sich nun der Verdacht auf, dass der Konzern mit entsprechenden Programmierungen um jeden Preis verhindern wollte, dass der Chatbot mit seinen Antworten politisch nach rechts driftet. Dies ist Wasser auf die Mühlen von Konservativen, die sich seit Jahren empören, dass die Tech-Konzerne der «Left Coast» sich gegen sie verschworen hätten.

Es sei unvermeidlich gewesen, dass es Probleme mit den unterschiedlichen politischen Ausrichtungen von KI-Modellen geben würde, schrieb der politische Kommentator Nate Silver auf Twitter, «aber Gemini hat buchstäblich die politische Ausrichtung eines durchschnittlichen Mitglieds des Stadtrats von San Francisco». Er sei verwundert, dass Google beschlossen habe, den Chatbot in dieser Version auf den Markt zu bringen.

Eine PR-Kampagne lanciert, um die Konkurrenz schnellstmöglich einzuholen

Interessant ist auch, dass Google jüngst noch damit prahlte, dass man das derzeit beste Sprachmodell entwickelt habe. Kein anderer Chatbot könne Inputs verarbeiten, die so lang wie mehrere Bücher seien, schrieb die Firma vor wenigen Tagen in einem Blogpost.

Vonseiten der Führungsetage hiess es, das Ziel sei, dass der Chatbot Milliarden von Nutzern erreiche. Anfang Februar lancierte der Konzern deswegen eine grossangelegte PR-Kampagne: Alle KI-Angebote um den Chatbot herum wurden einheitlich in Gemini umgetauft und neue Produkte um diesen herum vorgestellt; so kostet etwa die Nutzung des mächtigsten Sprachmodells neu 20 Dollar im Monat. Der Eindruck entstand, dass es Google eilig hatte, Konkurrenten wie Open AI einzuholen. Das dürfte auch erklären, weshalb der Konzern nicht wie sonst bei einer derartigen Ankündigung bis zur Entwicklerkonferenz im Mai wartete. Es schien auf jeden Tag anzukommen.

Googles Ruf als vertrauenswürdige Suchmaschine ist bedroht

Für Google ist der Skandal um Gemini ernst, da nichts weniger als seine Reputation als vertrauenswürdige, objektive Suchmaschine auf dem Spiel steht – und damit die Grundlage des gesamten Geschäftsmodells. Den Löwenanteil des Umsatzes (55 Prozent) macht der Konzern nach wie vor mit Werbung, die um die klassischen Suchergebnisse herum platziert wird. Müssen die Nutzer fürchten, dass die Antworten des Chatbots falsch sind, hinterfragen sie womöglich auch dessen andere Suchresultate – und wandern zur Konkurrenz ab. Die Werbekunden würden schnell folgen.

«Die Leute vertrauen darauf, dass Google die Wahrheit sagt», sagte Yash Sheth, ein früherer Google-Mitarbeiter und Mitgründer des KI-Startups Galileo, gegenüber dem «Wall Street Journal». Auch andere Chatbots könnten kontroverse Antworten produzieren. Google habe aber weniger Spielraum für Fehler, weil sich die Suchmaschine im Laufe der Jahre das Vertrauen der Nutzer erarbeitet habe.

Der Technologie-Experte Ben Thompson ging am Montag in seinem Newsletter Stratchery noch einen Schritt weiter: Die Antworten von Gemini spiegelten eine Unternehmenskultur, die einer Umgestaltung bedürfe. Der Konzern solle als Reaktion einen Führungswechsel «bis hin zu und einschliesslich des CEO Sundar Pichai» in Betracht ziehen.

Allmählich dürften sich bei Google die Stimmen bestätigt fühlen, die davor gewarnt hatten, dass der Konzern seine Sprach-KI der Öffentlichkeit zugänglich mache. Das Ausmass des jetzigen Skandals dürfte ihre Befürchtungen bestätigen.

Exit mobile version