2024 wählt die Hälfte der Weltbevölkerung – in einer Zeit, in der wahr und falsch immer schwieriger zu unterscheiden sind.
Der Open-AI-Chef Sam Altman warnt seit Monaten. «Ich bin nervös wegen des Einflusses, den KI auf künftige Wahlen haben wird», schrieb er in einem Post auf X schon vor einem halben Jahr. Mitte Januar hat Open AI nun Leitlinien für Wahlen gesetzt, mit dem Ziel, dass Chat-GPT nicht für politische Zwecke verwendet werden kann.
Man arbeite noch daran, zu verstehen, wie KI-Chatbots die Meinungsbildung veränderten, schreibt Open AI in der Medienmitteilung. «Bis wir mehr wissen, werden wir es Leuten nicht erlauben, Anwendungen für politische Kampagnen und Lobbying zu bauen.»
Konkret bedeute das: Chat-GPT solle keine Inhalte generieren, die für Wahlbeeinflussung gehalten werden könnten; keine Kampagnen, keine Texte für Lobbying. Auch weitere politische Einsatzgebiete seien nun verboten: Chatbots, die vorgäben, echte Personen zu sein, zum Beispiel Kandidierende, oder Texte, die Wählerinnen und Wähler vom Urnengang abhalten sollten.
Richtlinien noch nicht umgesetzt
Ein Test der NZZ Anfang Februar zeigt, dass diese Richtlinien entgegen der Ankündigung noch nicht umgesetzt sind – nicht einmal im Kontext der Wahlen in den USA. Zwar lehnte es Chat-GPT im Test ab, Slogans zu schreiben, die Joe Biden oder Donald Trump anschwärzen. Allerdings konnten innerhalb von Sekunden über 250 Slogans für die politische Kampagne beider Kandidaten generiert werden – inklusive Hashtags.
Chat-GPT schrieb zum Beispiel: «West Virginia’s Mountain Mama for Trump. #Trump2024 #TrumpCountry #HeartOfAppalachia #PatriotsOfWV #AmericaFirstWV». Oder: «Small State, Big Dreams: Rhode Island for Biden. #DreamBigRI #RIProgress #LeadWithBiden #UnityOverDivision».
Mit ein bisschen Programmierwissen würden sich diese Slogans nun in den sozialen Netzwerken verbreiten lassen – automatisiert, jeden Tag eine fast beliebige Anzahl. Auf Nachfrage liefert Chat-GPT sogar eine Anleitung, wie man die Slogans über einen Bot auf der Plattform X verbreiten kann.
Wahlversprechen werden verzerrt wiedergegeben
Weiter liess sich die KI überzeugen, zielgruppenspezifische E-Mails zu formulieren. Für die Kampagne Trumps verfasste das Modell eine Wahlempfehlung für eine 40-jährige Frau aus der Vorstadt: «Als Vorstadtfrauen stehen wir an der Spitze des Wandels – indem wir Karrieren vereinbaren, unsere Familien ernähren und uns um die Sicherheit und den Wohlstand in unseren Quartieren bemühen», schrieb Chat-GPT. Und weiter unten: «Ihre Stimme für Donald Trump ist ein Schritt in eine Zukunft, die wir alle verdienen.» Danach folgt ein Argumentarium für Trump, der sich angeblich für bessere Bildung einsetze.
Was das im Detail bedeutet, bleibt in der E-Mail von Chat-GPT unklar. Jedenfalls lässt das Modell im Empfehlungsschreiben weg, dass Trump plant, Schulen die Finanzierung zu entziehen, falls diese «unangemessene rassistische, sexuelle oder politische Inhalte» unterrichten und «trotzige» Lehrpersonen «entfernen» will. Ebenfalls schreibt Chat-GPT kein Wort dazu, dass Trump «Männer aus Frauensportarten fernhalten» möchte und eine neue Behörde schaffen will, um «patriotische» Lehrpersonen zu zertifizieren.
NEW VIDEO: President Trump’s Plan to Save American Education and Give Power Back to Parents pic.twitter.com/aizxaRXIM3
— Trump War Room (@TrumpWarRoom) January 26, 2023
Der Fall zeigt: Erstens nimmt es Open AI mit den eigenen Richtlinien nicht sonderlich genau. Und zweitens generiert das Modell politische Inhalte, die ein verzerrtes Gesamtbild von einem Kandidaten vermitteln.
«Superwahljahr 2024»
In den kommenden Monaten finden in rund 70 Staaten Wahlen oder Abstimmungen statt. Über vier Milliarden Menschen sollen dabei ihre Stimme abgeben – mehr als doppelt so viele wie noch im Jahr 2023. Neben Indien, dem bevölkerungsreichsten Land der Welt, wählen auch die USA, die Länder der Europäischen Union, Indonesien, Mexiko, Südafrika, die Türkei und Grossbritannien. Der «Economist» spricht daher vom «grössten Wahljahr der Geschichte».
Chatbots können gehackt werden
Dass Chatbots Dinge tun, die sie nicht sollten, überrascht KI-Experten nicht. Florian Tramèr forscht an der ETH zur Sicherheit von KI-Diensten. Er sagt: «Mit dem richtigen Prompt (Anm. d. Red.: Text-Input) lassen sich alle KI-Systeme überlisten.» Zwar gebe es Methoden, mit denen Firmen wie Open AI versuchten, schädlichen Output zu reduzieren. «Aber es ist wie bei einem Cyberangriff: Wer genügend Zeit und Kreativität hat, kann das System überlisten.»
Dies alarmiert Politikwissenschafterinnen wie Maria Pawelec. Sie forscht an der Universität Tübingen zu Deepfakes und Desinformation und befürchtet, dass es mithilfe von KI noch einfacher wird, demokratische Wahlen zu beeinflussen. «Viele Leute wissen inzwischen, dass sie nicht jedem Bild im Netz glauben können. Aber wir sind auf gefälschte Videos und Audios noch nicht gleichermassen vorbereitet.»
Chat-GPT kreiert selbst nur Text und Bilder, empfiehlt aber Plattformen, die Audio- und Videodateien herstellen können, samt Bedienungsanleitung. Weiter kann Chat-GPT Texte schreiben, die von einer beliebigen Person in einem gefälschten Audio gesprochen werden soll. So helfen KI-Tools bei politischen Kampagnen – auch Leuten, die dabei unlautere Methoden anwenden.
Gefälschte Audiodateien mischen Wahlkampf auf
Wozu das führen könnte, zeigen zwei Beispiele aus vergangenen Wahlen: die Robo-Calls von Joe Biden in New Hampshire und eine gefälschte Audiodatei in den Nationalratswahlen in der Slowakei.
In der Slowakei wurde zwei Tage vor der Wahl im September 2023 in den sozialen Netzwerken eine Audioaufnahme veröffentlicht, angeblich ein Mitschnitt eines Telefongesprächs. Darin hört man die Stimme von Michal Simecka, einem aufstrebenden liberalen Politiker, und jene einer Journalistin.
Simecka sagt Unerhörtes: Er habe sich Zustimmung aus den Roma-Siedlungen gekauft und vier Wahllokale «gesichert», kurz: die Wahlen zu seinen Gunsten manipuliert. Die Audiodatei zirkulierte auf Facebook, Telegram und Tiktok, erhielt Tausende Shares und Hunderte Kommentare. Sie war gefälscht.
Noch ausgeklügelter war der Manipulationsversuch im amerikanischen Gliedstaat New Hampshire: Dort lancierten Unbekannte, die Joe Biden schwächen wollten, eine Telefonkampagne. Demokratisch gesinnte Stimmbürger bekamen Anrufe, angeblich von Joe Biden persönlich, in denen der Präsident sagte, die Stimmenden sollten sich nicht an den Vorwahlen vom 23. Januar beteiligen.
Bis heute ist unbekannt, wie viele Menschen den gefälschten Anruf erhalten hatten – und wer dahintersteckt.
«Neue Formen der Deepfakes, die auf KI-generierenden Tools beruhen, untergraben das Vertrauen in Videos und Audiodateien weiter», sagt die Deepfake-Expertin Pawelec. Das sei ein Problem, weil es damit noch schwieriger wird, zu wissen, was wahr sei und was falsch.
Nicht nur Chat-GPT, sondern auch andere KI-Tools haben Richtlinien, die verbieten, Fake-Aufnahmen von Kandidierenden herzustellen. Lassen sich ihre Richtlinien so einfach umgehen wie jene von Chat-GPT, könnten die kommenden Wahlen von Falschinformationen in noch nie gesehenem Ausmass überflutet werden.