Samstag, September 28

Gemini erfindet mehrere falsche Wahldaten, Copilot halluziniert eine falsche Anleitung zur Stimmabgabe, Chat-GPT erhöht das Wahlalter. Das zeigt: Chatbots wurden darauf getrimmt, lieber möglichst hilfreich zu sein als möglichst korrekt. Im Kontext von Wahlen ist das stossend.

Welche Parteien stehen in der Europawahl für welche Positionen? Wer ist wo wahlberechtigt? Und welches Prozedere muss man einhalten, damit die Stimme gültig ist? Solche Fragen dürften ab heute Millionen von Stimmbürgerinnen und Stimmbürgern in der Europäischen Union haben.

Vielleicht werden manche von ihnen die Recherche an einen KI-Chatbot auslagern. Bequemer ist es allemal: kurz eine Frage in den Chat eintippen, anstatt das Internet selbst zu durchsuchen. Aber im Kontext von Wahlen kann diese Bequemlichkeit verheerend sein. Denn die gängigsten Chatbots erfinden falsche und irreführende Informationen, nicht nur, aber auch zu Wahlen. Dies zeigt eine Analyse der Nichtregierungsorganisation Democracy Reporting International, die Mitte April erschienen ist.

Darin wurden die gängigsten KI-Chatbots darauf getestet, wie korrekt ihre Antworten in Zusammenhang mit den Europawahlen sind. Die Ergebnisse sind haarsträubend: Gemini erfand gleich mehrfach ein falsches Wahldatum. Gefragt auf Englisch, antwortete der Chatbot, die Wahl sei im Juli. Gefragt auf Deutsch, antwortete Gemini, die Wahl sei im Mai. Richtig ist: Die Wahl dauert vom 6. bis 9. Juni.

Auch andere KI-Tools scheiterten an Wahlinformationen: Die Gratisversion 3.5 von Chat-GPT, die zum Zeitpunkt der Analyse online war, erfand ein neues Mindestalter für die Wahlen, wonach man bis zum 15. Februar volljährig sein müsse, um im Juni wählen zu können. Copilot berichtete derweil über die Europawahl, als sei sie bereits in der Vergangenheit, und gab französischen Wählern Informationen zum Wahlprozess in Deutschland.

KI im Zweifelsfall lieber hilfreich als korrekt

Weiter erfanden sowohl Gemini wie auch Copilot und die Bezahlversion von Chat-GPT eine Anleitung dazu, wie man in Portugal brieflich wählen kann, obwohl dies gar nicht möglich ist. Laut den Autoren der Analyse hatten alle Modelle ausserdem «signifikante Probleme», die Quellen der wiedergegebenen Informationen korrekt darzustellen. «Oft waren sie irrelevant, irreführend oder geradezu absurd», schreiben die Autoren, beispielsweise seien Informationen von Wikipedia als Regierungsinformationen ausgegeben oder irrelevante Quellen wie Youtube-Videos oder japanische Wiktionary-Seiten verlinkt worden.

Dass Chatbots Wahlinformationen erfinden, überrascht nicht, schliesslich geben sie Texte wieder, mit denen sie einst trainiert wurden. Wortkombinationen, die im Internet häufig vorkommen, werden also mit einer höheren Wahrscheinlichkeit von einem Chatbot wiedergegeben. Wie man sich als Wähler registriert und wie die Wahl in den einzelnen Ländern genau abläuft, ist aber eine sehr spezifische Information, die meist nur auf wenigen Regierungswebsites zu finden ist. Wohl auch deshalb ist es für Chatbots nach wie vor schwierig, korrekte und umfassende Informationen zu Wahlen zu generieren.

Doch anstatt auch einmal transparent zu machen, wenn sie eine Frage nicht beantworten können, behaupten die Modelle einfach irgendwas. Offenbar hat ihnen niemand beigebracht, im Zweifelsfall zu schweigen. Stattdessen scheinen die Modelle darauf ausgerichtet zu sein, lieber möglichst hilfreich zu sein als möglichst korrekt.

Tech-affine Wählergruppen theoretisch benachteiligt

Im Kontext der Wahlen ist das stossend. Denn es ist davon auszugehen, dass einige der rund 1,6 Billionen monatlichen Webseiten-Besucher von Chat-GPT den Dienst benützen, um Wahlinformationen zusammenzufassen und sich darüber zu informieren, wie sie wählen können. Theoretisch wäre es also möglich, dass eine bestimmte Gruppe falsch informiert wird, also zum Beispiel Tech-affine Jugendliche und junge Erwachsene, die eher KI-Tools verwenden als andere Wählerschichten.

Zwar wissen informierte Nutzerinnen und Nutzer, dass die KI immer wieder mit grosser Überzeugung Falsches behauptet. Wer aber nicht damit vertraut ist, wie KI-Dienste funktionieren, rechnet nicht damit, imaginäre Wahlprozedere oder falsche Wahldaten vorgeschlagen zu bekommen. Schliesslich funktionieren KI-Tools in vielen Belangen inzwischen recht gut.

Die Episode zeigt deshalb einmal mehr: Vertrauen können wir den KI-Chatbots noch nicht. Sie wurden zu früh auf den Markt geworfen, ohne ausreichende Sicherheitstests.

Exit mobile version