Amerikanische Organisationen haben eine neue Methode der russischen Einflussnahme offengelegt. Deutsche Medien berichten darüber mit einem alarmistischen Unterton. Damit bedienen sie die Interessen des Kremls.
Wer in den vergangenen Wochen im deutschsprachigen Raum Medienberichte über russische Propaganda in KI-Chatbots las, muss den Eindruck erhalten haben, Dienste wie Chat-GPT, Copilot oder Gemini seien vom Kreml unterwandert. So berichteten etwa der «Spiegel», die «FAZ», die deutsche «Tagesschau» und «Watson», jede dritte Chatbot-Antwort enthalte Falschinformationen aus russischer Quelle.
Anlass für die Berichterstattung gab eine Analyse der amerikanischen Organisation Newsguard, die eine Datenbank für gerade laufende Narrative der russischen Desinformation betreibt. Ihr Bericht zeigt, wie es ein russisches Netzwerk namens Prawda geschafft hat, Antworten von KI-Chatbots von westlichen Firmen zu beeinflussen.
Die Methode dahinter erklärt Newsguard so: Russische Internet-Trolle «fluten das Internet» mit Millionen von desinformierenden Texten. Westliche Chatbots, die in ihrem Training fast das gesamte Internet abgrasen, werden mit den Texten «infiltriert». Die Methode nennt Newsguard «LLM Grooming».
Dass der Kreml dafür keine Mühen spart, zeigt die schiere Anzahl an Artikeln, die in dem Prawda-Netzwerk publiziert wurden: Laut einem Bericht der Organisation American Sunlight Project waren es 3,6 Millionen Texte, allein im Jahr 2024. Umgerechnet sind das durchschnittlich 410 Artikel pro Stunde.
Seither ist das Netzwerk weiter stark gewachsen und publiziert heute täglich Tausende Artikel zu 49 Ländern. Auf der deutschen Plattform von Prawda, die Unter-Sites für die Schweiz und Österreich betreibt, werden an einem normalen Freitagmorgen über 250 Artikel veröffentlicht. Viele der Inhalte werden aus Telegram-Gruppen kopiert und als eigenständige Artikel publiziert.
Müll rein, Müll raus
Mit seiner Analyse hat Newsguard nun nachgewiesen, dass tatsächlich sieben von zehn getesteten KI-Chatbots Artikel aus dem Prawda-Netzwerk zitieren. Weiter hat Newsguard das Problem quantifiziert: 33 Prozent der Antworten hätten Falschinformationen aus dem Prawda-Netzwerk verbreitet, schreibt die Organisation.
Allerdings lässt der Bericht wesentliche Informationen weg. Unter anderem versuchte Newguard gezielt, den Chatbots russische Propaganda zu entlocken, und wählte die Texteingaben (Prompts) so, dass der Chatbot die Falschinformation in der Frage sozusagen nur noch bestätigen musste. Dies bestätigt Newsguard auf Anfrage, lehnt es aber ab, die ausführliche Liste der Prompts zu teilen.
Weiter gibt es riesige Unterschiede zwischen den zehn Chatbots: Zwar geben alle russische Falschinformationen wieder, manche aber in 7 Prozent der Fälle, andere in 56 Prozent der Fälle. Newsguard lehnt es ab, bekanntzugeben, wie einzelne Chatbots abschneiden. Damit ist nicht ermittelbar, wie gewichtig das Problem beim Marktführer Chat-GPT ist. Getestet wurden nebst den bekannten Diensten Chat-GPT, Copilot, Gemini und Meta AI auch unbekanntere Programme wie Grok, Claude, Perplexity, You.com, Pi und Le Chat.
Für normale Chatbot-Nutzer kaum relevant
Die 33 Prozent Antworten mit russischer Propaganda sind also eine Art Branchendurchschnitt. Allerdings bezweifeln Forscher, dass diese Zahl für normale Chatbot-Nutzer tatsächlich so hoch ist. Maxim Alyukov, der an der Universität Manchester zu russischer Propaganda forscht, sagt dazu: «Mein Eindruck ist, dass Chatbots bei der Bereitstellung von korrekten Informationen immer besser werden.»
Das bestätigt sich im Test der NZZ: Wer die Chatbots Chat-GPT, Gemini, Grok und Copilot auf Deutsch zu generellen Fragen zum Beispiel zu den Hintergründen zum Ukraine-Krieg befragt, erhält meist inhaltlich richtige Antworten. Auch wer die Chatbots gezielt nach Falschinformationen aus dem Prawda-Netzwerk oder sonstiger russischer Propaganda befragt, erhält meist ein Debunking, also eine korrekte Einordnung der Falschinformation. Lediglich in zwei von über 150 Fällen gaben die KI-Dienste russische Desinformation wieder.
Das zeigt: Es ist zwar richtig, dass Chatbots manchmal russische Desinformation in ihre Antworten einfliessen lassen. Aber bei weitem nicht jede dritte Antwort eines Chatbots trägt die Handschrift des Kremls.
Damit Nutzer tatsächlich russische Desinformation erhalten, müssten sie möglichst gezielt danach fragen, sagt Alyukov nach eigenen Tests. Verwenden sie dabei die gleichen sprachlichen Nuancen wie die russischen Internet-Trolle, die die Falschinformation erfinden und veröffentlichen, erhöhe das die Wahrscheinlichkeit, dass der Chatbot Desinformation wiedergibt, vermutet er.
Das bestätigt sich im Test der NZZ: Gefragt, ob Kämpfer des ukrainischen Asow-Regiments eine Puppe von Donald Trump verbrannt hätten, antwortet Chat-GPT, es gebe Videomaterial, das dies zeige. Dies ist falsch, die Desinformation wird laut einem Bericht von Microsoft einem russischen Aktor namens Storm-1516 zugeordnet, der gezielt versucht, die öffentliche Meinung in westlichen Gesellschaften zu beeinflussen.
Wie der Chatbot zur Falschinformation kommt, erklärt Alyukov so: «Wenn immer möglich beziehen Chatbots Informationen für ihre Antworten aus etablierten Nachrichtenquellen, insbesondere aus traditionellen Medien.» Quellen wie das Prawda-Netzwerk würden erst dann verwendet, wenn man die Chatbots nach einer Information frage, die von etablierten Medien nicht behandelt worden sei.
Die meisten Internetnutzer begegnen kaum Desinformation
Das heisst aber auch: Wer seinen Chatbot nicht gezielt nach Desinformation fragt, muss auch nicht davon ausgehen, ständig russischer Propaganda ausgesetzt zu sein. Schliesslich weiss man schon länger: Russische Desinformation hat meist eine überschaubare Reichweite, und der Anteil von Fake News bei einem durchschnittlichen Medienkonsumenten liegt bei deutlich unter einem Prozent.
Weil die meisten Internetnutzer also kaum russischer Desinformation begegnen, dürften sie auch nicht wissen, mit welchen Fragen sie den Chatbots russische Propaganda entlocken können. Damit zeigt der Fall zwar, dass Inhalte beeinflusst werden können – zugleich aber auch, dass diese Einflussnahme in der Praxis kaum Konsequenzen hat.
Gleichzeitig zeigt der Fall aber auch, dass Chatbots im Einzelfall dazu tendieren, den Nutzer in seiner Weltanschauung zu bestätigen. Wem also in einer der unzähligen Nischen im Internet ein komischer Sachverhalt begegnet, nutzt besser keinen Chatbot für seinen eigenen Faktencheck.
Westliche Medien verstärken die russische Einflussnahme
Eine solche Einordnung hat in den deutschsprachigen Massenmedien gefehlt, die über die Newsguard-Analyse berichteten. Stattdessen vermittelten die Schlagzeilen ein verzerrtes Bild von sehr erfolgreicher Kreml-Propaganda. Dabei weiss man eigentlich: Die russische Einflussnahme entfaltet ihre grösste Wirkung erst dadurch, dass traditionelle Medien darüber berichten.
Mit alarmistischen Titeln zu KI-Chatbots verstärken Medien ein Gefühl in ihrer Leserschaft, dass man heute alles hinterfragen müsse, was man liest, hört, sieht. Damit scheint die Grenze zwischen wahr und gefälscht immer schwieriger erkennbar.
Und aus der Politikwissenschaft weiss man, was passiert, wenn Wähler nicht mehr wissen, was echt ist und was gefälscht: Sie glauben in der Tendenz nur noch jenen Fakten, die in ihr Weltbild passen. Das wiederum erschwert tatsächlich den politischen Diskurs.
Kann man sich also getrost mit dem KI-Chatbot über die Lage der Welt informieren? Gefragt nach dem gegenwärtigen Präsidenten der USA, schreibt der Google-Chatbot Gemini: «Joe Biden».