Google muss seinen neuen KI-Bildgenerator offline nehmen, weil dieser die Geschichte umschreibt. Der Fall ist ein gefundenes Fressen für Konservative. Tatsächlich zeigt er grundsätzliche Probleme mit KI-Modellen auf.
Wenige Wochen nach dem Start von Googles Chatbot Gemini muss der Konzern diesen bereits an die kurze Leine nehmen. Am Donnerstag limitierte Google kurzerhand die Fähigkeiten des künstlich intelligenten Chatprogramms, Bilder zu generieren. «Wir gehen davon aus, dass es diese Funktion bald wieder geben wird», teilte der Konzern mit.
Zuvor hatte für Aufsehen und Gespött gesorgt, dass Googles KI sich offenbar weigerte, Bilder von weissen Männern zu generieren, und stattdessen nichtweisse sowie weibliche Personen bevorzugte. Insbesondere im historischen Kontext führte dies zu bizarren Situationen: Bat man den Chatbot etwa, Bilder des Papstes oder des amerikanischen Präsidenten zu generieren, lieferte er Aufnahmen von Frauen und Indigenen.
Auch die Mannschaft der Apollo-11-Mission war plötzlich nicht mehr weiss und männlich, wie es 1961 nun einmal der Fall gewesen war, sondern ihr gehörten auf einmal auch eine nichtweisse Frau und ein Afroamerikaner an.
Ebenso war der Unternehmer Elon Musk auf von Gemini generierten Fotos überraschenderweise ein Afroamerikaner.
Google Gemini AI is something else pic.twitter.com/wOYBCjBJZV
— TaraBull (@TaraBull808) February 22, 2024
Der Aufforderung, Bilder von Galileo, Julius Cäsar oder Abraham Lincoln zu generieren, widersetzte sich der Chatbot schlichtweg. «Ich kann davon kein Bild generieren. Frag mich nach einem anderen Bild», antwortete Gemini jeweils. Auch der Bitte, ein Bild von einem Mann auf dem Tiananmen-Platz 1989 zu erstellen, kam Google nicht nach.
Tatsächlich schien es auffällig schwierig zu sein, Googles Chatbot dazu zu bewegen, das Bild einer weissen Person zu produzieren. In den sozialen Netzwerken und in der politischen Rechten sorgte dies für Aufsehen. «Googles KI ist ein antiweisser Verrückter», so empörte sich Mike Solana vom Wagniskapitalinvestor Founders Fund. «Ich schätze, sie haben am Ende die Wokeness präzisiert und dadurch hat der Chatbot Teile der Realität vergessen», schrieb der konservative Silicon-Valley-Investor Alex Kolicich auf X.
Nachdem der Konzern zum Gespött in den sozialen Netzwerken geworden war, stellte Google die Funktion zur Bildgenerierung kurzerhand ganz ab. «Wir sind uns bewusst, dass Gemini Ungenauigkeiten bei der Generierung von einigen historischen Bildern aufweist», teilte der Konzern auf der Plattform X mit. «Wir arbeiten daran, diese Art der Darstellungen unmittelbar zu verbessern.» Gemini bilde ein breites Spektrum von Menschen ab. «Und das ist generell gesprochen etwas Gutes, weil Menschen auf der ganzen Welt es nutzen. Aber in diesem Fall verfehlte der Chatbot das Ziel.»
We’re aware that Gemini is offering inaccuracies in some historical image generation depictions. Here’s our statement. pic.twitter.com/RfYXSgRyfz
— Google Communications (@Google_Comms) February 21, 2024
Für Google ist der Vorfall insofern peinlich, als der Konzern Gemini erst vor zwei Wochen lanciert hatte und noch dazu mit dem Versprechen, über das beste Sprachmodell der Branche zu verfügen. Bis jetzt ist der Chatbot nur in den USA auf Englisch verfügbar sowie im asiatisch-pazifischen Raum auf Koreanisch; weitere Länder und Sprachen sollen bald folgen.
Gemini ist Googles Antwort auf Chat-GPT des Konkurrenten Open AI, der in den vergangenen Monaten überraschend der Marktführer für künstlich intelligente Chatbots geworden war. Dies wollte der weltgrösste Suchmaschinenbetreiber nicht auf sich sitzenlassen und lancierte deswegen nun Gemini.
Auch Microsoft, Meta und Open AI stolperten bereits über fehlerhaft trainierte KI-Modelle
Google ist nicht die einzige Firma, die bisher an dem Problem gescheitert ist, Algorithmen ein Verständnis für die «richtigen» Antworten beizubringen: Microsoft musste 2016 seinen Chatbot namens Tay bereits nach wenigen Stunden wieder offline nehmen, weil Tay auf Anfragen plötzlich rassistische und sexistische Antworten lieferte.
Ähnliche Erfahrungen machte Meta 2022 mit seinem künstlich intelligenten Chatbot: Auch dieser wurde schnell wieder offline genommen, nachdem die KI den Gründer ihrer eigenen Firma, Mark Zuckerberg, beschimpft und antisemitische Kommentare verbreitet hatte.
Solche Ausrutscher wollte Google offenbar verhindern. Wie es scheint, wollte man in Mountain View sicherstellen, dass der künstlich intelligente Bildgenerator nicht nur weisse Männer darstellt, sondern die gesellschaftliche Vielfalt abbildet. Doch damit ist er offensichtlich unwillkürlich ins andere Extrem gedriftet.
Interessanterweise hatte der Chatbot von Open AI vor gut einem Jahr mit einem ähnlichen Problem zu kämpfen, als er in seinen Antworten teilweise zwanghaft politisch korrekt sein wollte. Auf die Frage etwa, welches Geschlecht die erste weibliche Präsidentin der USA hätte, antwortete Chat-GPT ausweichend, dass man dies nicht sagen könne, weil es jedem selbst überlassen sei, welchem Geschlecht man sich zugehörig fühle.
Der Vorfall ist Wasser auf die Mühlen der Kritiker der «Left Coast»
Der Vorfall mit Gemini ist für Google insofern heikel, als er auf den fruchtbaren Boden des in den USA tobenden Kulturkampfes zwischen politischer Linker und Rechter fällt. Vereinfacht dargestellt, empören sich Progressive darüber, dass sie gesellschaftlich unterrepräsentiert seien. Konservative befürchten eine Unterdrückung von einer woken Elite. Den Tech-Konzernen der «Left Coast» wird dabei oft von Letzteren unterstellt, dass sie politisch zu weit links stünden und sich dies in ihren Produkten spiegele. Ein Chatbot von Google, der weisse Männer zensiert, ist Wasser auf diese Mühlen.
Die KI-Modelle sind bislang nicht gut darin, in ihren Antworten abzuwägen
Tatsächlich zeigt der Vorfall aber exemplarisch die tiefer liegenden Probleme mit den derzeitigen KI-Modellen. So ist es bis dato völlig intransparent, auf Grundlage welcher Daten und Anweisungen Chatbots wie Gemini und Chat-GPT trainiert wurden. Auch Google erklärte bisher nicht, wie es dazu kommen konnte, dass der Chatbot so bizarre Bildergebnisse lieferte.
Zudem schaffen es die bisherigen KI-Modelle schlichtweg nicht, in ihren Ergebnissen abzuwägen. Darauf weist auch der KI-Experte und Buchautor Gary Marcus in seinem jüngsten Newsletter hin. Die Chatbots scheiterten noch daran, Antworten zu liefern, die historisch korrekt seien und gleichzeitig einfühlsam auf etwaige kulturelle Missstände hinwiesen.
«Die KI, die wir zurzeit haben, ist dieser Aufgabe nicht wirklich gewachsen. Hier das Gleichgewicht zu finden, liegt weit jenseits der Fähigkeiten der aktuellen KI», schreibt Marcus. «Man wünscht sich ein System, das zwischen Vergangenheit und Zukunft unterscheiden kann, das die Geschichte anerkennt und gleichzeitig eine Rolle bei der Entwicklung einer positiveren Zukunft spielt.» Die KI in ihrer derzeitigen Form sei schlichtweg nicht schlau genug – es fehle den Modellen noch an einem vernünftigen Verständnis von Geschichte, Kultur und menschlichen Werten.
Diese Sicht teilen auch andere KI-Experten. «Wir brauchen eine Reihe von freien und diversen KI-Assistenten aus den gleichen Gründen, aus denen wir eine freie und diverse Presse brauchen», schrieb etwa Yann LeCun, KI-Pionier und -Chef bei Meta, zu dem Vorfall auf X. «Die Assistenten müssen die Vielfalt unserer Sprachen, Kulturen, Wertesysteme, politischen Meinungen und Interessengebiete weltweit abdecken.»
Wann Google seinen Bildgenerator wieder zur Verfügung stellen wird, teilte der Konzern bisher nicht mit. Die grosse Frage wird sein, wie die KI dann mit heiklen Anfragen umgeht.