Faktenchecks helfen nicht gegen Irrglauben, sind viele Forscher überzeugt. Doch im Dialog mit Maschinen scheinen Menschen erstaunlich offen für rationale Argumente zu sein.
Es ist ein recht hoffnungsloses Menschenbild, auf das sich die Wissenschaft in Sachen Verschwörungstheoretikern geeinigt hat: Wer einem Irrglauben anhängt, der bleibt meist dabei. Gegenargumente und Faktenchecks prallen ab.
Zu diesem Schluss kamen zahlreiche Studien, und er wird auch all jenen plausibel erscheinen, die sich online oder im Bekanntenkreis auf Diskussionen über Verschwörungsmythen eingelassen haben.
Umso überraschender sind die Resultate einer neuen Studie der amerikanischen Psychologen Thomas Costello, David Rand und Gordon Pennycook. Sie haben einem KI-Chatbot aufgetragen, Leute vom Glauben an falsche Informationen abzubringen, indem er Fakten auflistet und Rückfragen beantwortet. Im Durchschnitt waren die Teilnehmer danach um 20 Prozentpunkte weniger überzeugt von ihrer Verschwörungstheorie.
Roland Imhoff, Professor an der Johannes-Gutenberg-Universität Mainz, der unter anderem zu Verschwörungsmentalität forscht, sagt: «Obwohl ein grosser Teil danach immer noch von der Verschwörung überzeugt blieb, nur etwas weniger, ist das für eine solche Studie ein gigantisch grosser Effekt.» Beeindruckend sei auch, dass er bei zwei Nachfragerunden zwei Monate später erhalten blieb.
Die Studienteilnehmer gaben an, an welche Verschwörungstheorie sie glaubten und was aus ihrer Sicht dafür spreche. Dabei nannten sie etwa gestohlene Wahlen, die Ermordung von Kennedy, Aliens oder die Anschläge vom 11. September.
Diese Daten leiteten die Forscher an einen Chatbot weiter, der auf dem KI-Modell GPT-4 Turbo von Open AI basiert. Diesem trugen die Forscher auf, auf wertschätzende Art Argumente gegen die Theorie vorzubringen. Die Teilnehmer konnten drei Rückfragen stellen. Vor und nach der Konversation wurde ihre Zustimmung zu «ihrer» Verschwörungstheorie abgefragt.
Der Bot hat immer ein massgeschneidertes Argument parat
Man kann die Debunkbot, also Entlarv-Bot, getaufte KI auch im Internet ausprobieren. Die Vorzüge gegenüber einer Diskussion am Weihnachtstisch werden dabei schnell deutlich.
Der Chatbot betont erst, wie wichtig es sei, Dinge zu hinterfragen, und spricht Verständnis dafür aus, bei einschneidenden historischen Ereignissen in Zweifel darüber zu geraten, was dahintersteckt. Dann widerlegt er Argumente Schritt für Schritt mit detaillierten Fakten. Er erklärt etwa, wie ein Gebäude des World Trade Center nach dem Anschlag plötzlich habe zusammenbrechen können, ohne dass ein Flugzeug direkt hineinflog. Dieser Fakt wird oft als Beweis für die Theorie vorgebracht, dass die amerikanische Regierung die Anschläge inszeniert habe. Die KI geht darauf mit Fakten zur Bausubstanz ein.
Anders als Menschen oder ein Fakten-Check-Artikel kann die KI massgeschneidert auf alle Argumente und Nachfragen eingehen. Nach Ansicht der Autoren war dies der Grund für die Wirksamkeit der KI in ihrem Experiment: Zum ersten Mal hätten Anhänger von Verschwörungsglauben einen Gesprächspartner, der mit ihren Listen an Fakten mithalten kann – ihnen sogar überlegen ist. Es sei die Menge der Informationen, welche die KI überzeugender mache als Menschen in solchen Debatten.
Die Autoren sehen den Debunkbot als Hoffnungsschimmer: Unser Zeitalter sei doch nicht so postfaktisch wie angenommen, mit den richtigen Argumenten hinterfragten Menschen ihre Überzeugungen durchaus. Psychologische Motive spielten eine kleinere Rolle als gedacht.
Roland Imhoff relativiert diese Interpretation. «Der wertschätzende Ton und die Neutralität der KI kann ein Bedürfnis nach Akzeptanz vielleicht besser erfüllen als ein menschlicher Gesprächspartner, dessen Aussagen man immer auch auf der Beziehungsebene interpretiert.» Ausserdem stelle sich die Frage, warum Menschen dem Chatbot überhaupt so stark vertrauen. «Ich glaube nicht alles, was Chat-GPT sagt.»
Die suggestive Kraft der Maschine kann missbraucht werden
Vielleicht steckt dahinter ein Effekt, der schon in vielen anderen Studien nachgewiesen wurde: der Automation Bias, also die menschliche Neigung, auch wider besseres Wissen den Empfehlungen von Maschinen zu vertrauen, zum Beispiel absurden Ratschlägen von Navigationsgeräten.
Das weist auch schon auf die Schattenseite dieser Art Chatbot hin. Die Autoren schlagen vor, ihn auf sozialen Netzwerken einzubauen oder in der Google-Suche zu bewerben. Wer «gestohlene Wahlen» oder «QAnon» suchte, würde dann zu einer Seite gelangen, die zu einer KI-Debatte zu dem Thema einlädt.
Doch ist unklar, ob der Effekt auch im echten Leben erhalten bliebe. Die Nutzer einer sozialen Plattform hätten wohl weniger Geduld, sich mit den belehrenden Antworten einer KI zu befassen, als die Teilnehmer der Studie.
Ausserdem braucht es auch nicht viel Phantasie, um sich Missbrauch vorzustellen. Imhoff findet den Vorschlag der Autoren deshalb naiv. «Verschwörungstheorien werden ja gezielt zur politischen Destabilisierung und Beeinflussung gestreut, von russischen Trollfabriken bis hin zur AfD.» Diese Akteure könnten genauso gut KI für ihre Zwecke verbreiten.
Erst kürzlich zeigten Forscherinnen und Forscher des MIT, dass ein Chat mit einer KI mittels suggestiver Fragen die Erinnerungen von Probanden an eine Szene verfälschen kann.
Der Debunkbot erinnert an Orwells Wahrheitsministerium
Dass Menschen so stark auf die Argumente des Chatbots anspringen, ist nicht nur eine gute Nachricht, zumal KI-Chatbots meist keine Quellen angeben beziehungsweise sogar dafür bekannt sind, Fakten und Quellen zu erfinden. Der Debunkbot hielt sich zwar laut den Autoren in dieser Studie meist an die Fakten.
Und doch spricht einiges dagegen, die Definition der Wahrheit einfach an eine Maschine auszulagern. Imhoff formuliert es so: «Implizit wird hier eine Art Orwellsches Wahrheitsministerium gesetzt. Wie man die Welt zu sehen hat, ist dann kein gesellschaftlicher Aushandlungsprozess mehr, sondern ein Computer entscheidet das.» Auch wenn keiner eine solche KI missbrauche, eine besonders utopische Vorstellung von gesellschaftlicher Vermittlung und Debatte sei der Debunkbot nicht.