Ein neues Tool von Google erstellt aus Textdokumenten kurzweilige Audio-Files, die tönen wie professionell erstellte Podcasts. Speist man Parteiprogramme ein, liefert es die politische Interpretation der Fakten gleich mit – aus linker Perspektive.
Er wollte eigentlich nur ein bisschen mit einer neuen Technologie herumspielen. Aber als Jannis Vamvas merkte, wie unterhaltsam die KI-generierten Podcasts von NotebookLM sind, konnte er nicht mehr aufhören. Erst lud er wissenschaftliche Artikel hoch. Dann Zeitungsartikel. Dann ein Buch. Und schliesslich das Abstimmungsbüchlein mit den Informationen des Bundesrats über die eidgenössischen Abstimmungen vom 22. September.
NotebookLM, die neue Podcast-KI von Google, machte aus diesen Textdokumenten Audio-Files. «Ich war erstaunt, wie lebhaft und authentisch die Podcasts sind», sagt Vamvas, der an der Universität Zürich zu Sprachmodellen und KI forscht. Tatsächlich tönen die Audio-Files wie journalistische Produkte: Eine männliche und eine weibliche Stimme führen in einem lockeren Dialog ins Thema ein, geben ihm Relevanz, reflektieren es kritisch.
Aber im Podcast zum Abstimmungsbüchlein passiert der KI ein schwerwiegender Fehler. Bei Minute 8:50 sagt die männliche Stimme, die BVG-Reform beinhalte einen «einmaligen Bonus» für Pensionierte, um ihnen «den Deal zu versüssen». Die weibliche Stimme entgegnet: «Aaah, eine Art Dankesgeschenk, weil sie schon so viele Jahre einzahlen?» «Genau», antwortet die männliche Stimme, «eine schöne Geste natürlich, aber löst sie das Langzeitproblem?» Darauf sagt die weibliche Stimme, das sei die «Million-Franken-Frage».
Damit halluziniert die KI in einen sonst überraschend gelungenen Podcast einen inhaltlichen Fehler. Nirgends im Abstimmungsbüchlein ist die Rede von einem einmaligen Bonus für Pensionierte. Die Sache ist frei erfunden. «Wie bei jeder KI passieren auch bei NotebookLM manchmal inhaltliche Fehler», sagt Vamvas.
Dass das passiert, liegt an der Funktionsweise von KI. Das Programm hinter NotebookLM bestimmt in einer gigantischen Wahrscheinlichkeitsrechnung, was das nächste Wort im Podcast ist. Ein echtes Verständnis der BVG-Reform hat das KI-Tool aber nicht entwickelt. Deshalb sind Fehler nicht ausgeschlossen. Google weist auf der Website von NotebookLM darauf hin. Am unteren Bildschirmrand schreibt das Unternehmen eine Art Disclaimer: «Es kann gelegentlich vorkommen, dass NotebookLM falsche Antworten liefert, daher sollten Sie alle Fakten unabhängig überprüfen.»
SVP «steckt in der Vergangenheit fest», SP ist «ihrer Zeit voraus»
Zusätzlich zum Fehler dichtet NotebookLM dem Abstimmungsbüchlein eine politische Interpretation hinzu. Um Minute zehn sagt die männliche Stimme, Personen mit hohen Einkommen wären die Verlierer der BVG-Reform, ihre Renten würden sinken. Diese Information ist im Abstimmungsbüchlein aber nirgends zu finden. Google generiert damit also eine politische Botschaft.
Ein weiterer Test macht dies noch deutlicher. Dabei wurde je ein Podcast generiert über die Parteiprogramme der SVP und der SP.
Im Podcast über das SVP-Programm sagt die KI, die Partei verwende radikale, provokative und ausschliessende Rhetorik. Zwar fallen keine abschätzigen Worte über die Partei oder ihre Werte, es wird aber deutlich, dass die beiden KI-Sprecher die Positionen der SVP ablehnen. Der Grundton im Podcast ist hinterfragend, bisweilen negativ. Zum Beispiel wird gesagt, die SVP vertrete eine Vision der Schweiz, die «in der Vergangenheit feststecke».
Im Podcast über das SP-Parteiprogramm ist das anders. Die KI-Stimmen sprechen enthusiastisch über die Positionen der Partei. Sie sagen: «Ich bin fasziniert», die SP sei «ihrer Zeit voraus». Sie loben, wie «holistisch» die SP Konzepte wie die Freiheit betrachte. Und betonen, wie stark die SP die Werte Freiheit, Gerechtigkeit und Solidarität lebe, «das sind nicht nur leere Worte, sondern Werte ‹in action›».
Politische Schlagseite wohl einprogrammiert
Der Kontrast zeigt: Google scheint bei der Erstellung von Podcasts eine politische Meinung einzuflechten. «Gut möglich, dass das Modell eine Schlagseite hat», sagt Marisa Tschopp, Psychologin im Zürcher Cybersicherheitsunternehmen Scip. Zwar fehlten systematische Inhaltsanalysen des Podcast-Tools, womit klare Aussagen über eine allfällige einprogrammierte politische Haltung mindestens für den Moment noch unmöglich sind.
Allerdings wäre eine linke politische Ausrichtung bei Google nichts Neues. «Google hat schon einmal versucht, linksliberale Standpunkte in seine Produkte einfliessen zu lassen», sagt Tschopp und ruft eine Episode um die Google-KI Gemini in Erinnerung: Bat man den Chatbot im Februar, Bilder des Papstes oder des amerikanischen Präsidenten zu generieren, lieferte er Abbildungen von Frauen und Indigenen.
Auf die Frage, ob Google dem Podcast-Tool absichtlich eine politische Schlagseite einprogrammiert habe, antwortet der Konzern ausweichend: «NotebookLM ist ein experimentelles Produkt, und wir sind uns bewusst, dass es in manchen Fällen noch ungenaue Antworten liefert.» Man habe «Massnahmen zur Minderung potenzieller Neigungen getroffen». Dennoch befinde sich die Technologie noch in der Entwicklungsphase, schreibt Google auf Anfrage.
Schwindler könnten Podcasts als Eigenleistung ausgeben
Ein weiterer Kritikpunkt besteht darin, dass NotebookLM den Podcasts keinen KI-Disclaimer anfügt. «Eigentlich sollte es selbstverständlich sein, dass solche Audiodateien mit dem Hinweis beginnen, dass sie KI-generiert sind», sagt Tschopp.
Da dies nicht der Fall ist, verlässt sich Google auf die Nutzerinnen und Nutzer. Sie müssen nun vor der Veröffentlichung der Podcasts deklarieren, dass sie für die Erstellung ein KI-Tool verwendet haben. So hält es Google auch in seinen Nutzungsbedingungen fest.
Juristisch hat sich Google damit abgesichert. Allerdings ist davon auszugehen, dass sich nicht alle Nutzer daran halten werden und manche die KI-generierten Podcasts als ihre Eigenleistung ausgeben werden. Tun sie das, ist es sehr wahrscheinlich, dass die Hörerschaft die KI-generierten Podcasts für journalistische Produkte halten wird, die von Menschen gemacht wurden. Schliesslich täuschen die KI-Stimmen Menschlichkeit überzeugend vor: Manchmal sagen sie «äh», als müssten sie überlegen, manchmal fallen sie sich gegenseitig ins Wort, wie Menschen das tun, wenn sie engagiert diskutieren. Damit tönen die Audio-Files sehr authentisch.
Mit NotebookLM veröffentlicht Google erneut ein KI-Tool, dessen gesellschaftliche Auswirkungen noch nicht abschätzbar sind. Das entspricht im gegenwärtigen KI-Hype dem Standard. Auch andere Firmen warfen ihre KI-Tools mit dem Prinzip Hoffnung auf den Markt: Man publiziert einmal und hofft, dass die Tools nicht allzu oft missbraucht werden.