Zu Beginn des Superwahljahrs 2024 warnten Politologen davor, dass Deepfakes demokratische Wahlen gefährden. Nun zeigt sich: Die Befürchtung war überzogen, die Technologie wirkte anders als erwartet.
Neue Technologien haben immer schon Ängste ausgelöst. Nach der Erfindung des Buchdrucks sorgte sich die kirchliche Führungselite, die gedruckte Presse würde zu viele Falschnachrichten verbreiten. Dem Telefon wurde bei seiner Erfindung unterstellt, es wirke wie eine getarnte Wanze: Politiker, die sich dieses Gerät anschafften, mussten befürchten, dass sie jederzeit ausgehorcht werden können.
Später sagte man über das Radio, es lenke Kinder so stark von den Hausaufgaben ab, dass sie nicht zu mündigen Bürgern ausgebildet werden könnten. Und über den Fernseher wurde behauptet, er koche das Gehirn. Vernünftige Wahlentscheide seien damit nicht mehr möglich.
Keine neue Technologie ohne den Untergang der Demokratie, so scheint es. Die Erfindung, die heute angeblich die Demokratie bedroht, ist künstliche Intelligenz. Ihr Einfluss auf die Politik wurde zu Beginn des Superwahljahrs 2024 überall diskutiert: Sie werde demokratische Wahlen verzerren, vor allem mit Deepfakes, also computergenerierten Foto-, Video- oder Audiodaten, die guten Kandidaten Skandale andichten und sie damit unwählbar machen würden.
Spricht da wirklich ein Politiker, der Stimmen kauft?
Die Angst vor Deepfakes wuchs wegen eines Vorfalls in der Slowakei. Im September 2023 wählte die Stimmbevölkerung ein neues Parlament. Kurz vor der Wahl tauchte ein Deepfake in den sozialen Netzwerken auf: ein Audio-File, angeblich ein Mitschnitt eines Telefongesprächs zwischen Michal Simecka, dem Vorsitzenden der liberalen Partei Progressive Slowakei (PS), und einer Journalistin. Die Stimmen waren künstlich generiert. Sie sagten, die PS habe sich vier «Wahllokale gesichert» und Stimmen aus den Roma-Siedlungen gekauft.
Publiziert wurde das File zwei Tage vor der Wahl, zu einem Zeitpunkt, in dem traditionellerweise die Politiker schweigen und die Medien nicht mehr über die Wahl berichten. Das Audio suggerierte, einer der mächtigsten Politiker im Land sei korrupt und manipuliere die Wahlen. In den sozialen Netzwerken konnte sich der Deepfake zu Beginn ungehindert verbreiten. Tausende Stimmbürger sahen und teilten das File, bevor die Fact-Check-Abteilung der Presseagentur AFP die Fälschung entlarvte.
Das Szenario, so dachten viele Polit-Beobachter, dürfte sich nun in etlichen Urnengängen wiederholen: Kurz vor der Wahl werden gemässigte Kandidaten in Deepfakes diskreditiert – bis man schliesslich nicht mehr weiss, was wahr ist und was nicht.
«Armageddon» ist ausgeblieben
Nach dem Vorfall in der Slowakei sagte Hillary Clinton über die Sicherheit von demokratischen Wahlen: «Alle, die nicht beunruhigt sind, haben nicht aufgepasst.» Und die Friedensnobelpreisträgerin und Journalistin Maria Ressa sprach im Hinblick auf das Superwahljahr gar vom «Armageddon» und machte 2024 zu dem Jahr, in dem die Demokratie entweder «lebe oder sterbe».
Inzwischen ist das Superwahljahr fast rum, es haben Dutzende demokratische Wahlen in unterschiedlichen Weltregionen stattgefunden. Vielerorts erstarkten populistische Parteien, aber nirgends ist, wie Anfang Jahr befürchtet, kurz vor der Wahl kompromittierendes Video- oder Audiomaterial aufgetaucht, das etablierte Kandidaten in eine tiefe Vertrauenskrise gestützt hätte.
Selbst in der Slowakei, die in diversen Medien als Beispiel dafür verwendet wurde, wie schädlich Deepfakes für die Demokratie seien, wurde die Fälschung von Simeckas Stimme innerhalb weniger Stunden erkannt. Insgesamt gewann zwar die populistische, russlandfreundliche Partei Smer am meisten Stimmen, aber die Partei von Simecka kam auf Platz zwei und Schnitt am Wahltag besser ab als in den letzten Wahlumfragen.
Kaum Wirkung von Deepfakes in den USA
Auch in den USA, bei den wohl meistbeobachteten Wahlen weltweit, gibt es keine Hinweise darauf, dass Deepfakes die Wahl wesentlich beeinflusst hätten. Auch dort zirkulierten gefälschte Videos über diverse Kandidaten. Kamala Harris wurde unter anderem angedichtet, sie habe ein geschütztes Nashorn erschossen und eine Jugendliche umgefahren. Beide Videos wurden aber schnell als Fälschungen entlarvt und erreichten laut einer Untersuchung von Microsoft kein grosses Publikum.
Bei einem der Videos fand man keinerlei Anhaltspunkte, dass es mit einem KI-Tool erstellt oder bearbeitet worden war. Das zeigt: Die Gefahr von KI-generierten Deepfakes im Wahlkampf wurde überschätzt. Wer täuschen will, braucht keine KI, es reichen eine Videokamera und ein unverfrorener Schauspieler.
Kommt dazu, dass die grosse Mehrheit der politischen Deepfakes für einen völlig harmlosen Zweck erstellt worden war: zur Unterhaltung. Man erinnert sich an die Videosequenzen, in denen Harris und Trump ein Liebespaar werden und zusammen ein Baby bekommen. Oder an das Video des indischen Premierministers Narendra Modi, wie er auf einer Bühne tanzt, als gäbe es kein Morgen.
Lol! Trump and Harris fall in love and have a baby, according to this AI-generated clip. Really out of control! pic.twitter.com/Yk4tizglcR
— Simon Ateba (@simonateba) August 18, 2024
Posting this video cuz I know that ‹THE DICTATOR› is not going to get me arrested for this. pic.twitter.com/8HY32d4R2y
— Krishna (@Atheist_Krishna) May 6, 2024
Soft Fakes könnten den Kontakt mit Wählern erleichtern
Gerade in Indien nutzten Politiker synthetische Medien, wie man Deepfakes auch nennen kann, gezielt in ihrer Wahlkampagne. Sie kreierten Avatare von sich selbst und liessen damit Tausende von individualisierten Videobotschaften erstellen. In den Clips sprachen die Politiker einzelne Wählerinnen und Wähler mit dem Vornamen an, listeten auf, welche staatlichen Leistungen sie zugute haben, und baten am Ende um ihre Stimme. Und das nicht nur in einer Sprache, sondern in Dutzenden, je nach Muttersprache des Empfängers.
Für solche Videos mit Avataren hat sich eine neue Bezeichnung etabliert: Soft Fakes. Sie sind nicht gemacht, um einem Kandidaten zu schaden, sondern um ihn populär zu machen. Damit bietet die Technologie eine neue Art der persönlichen Wähleransprache, die vielleicht den einen oder anderen indischen Stimmbürger zum Gang ins Wahllokal mobilisierte, der sonst daheimgeblieben wäre. Jedenfalls war die Wahlbeteiligung in Indien höher als im Schnitt der letzten zwanzig Jahre.
Auch Politiker von anderen asiatischen Ländern nutzten KI-generierte Avatare und Soft Fakes. Der südkoreanische Präsident Yoon Suk Yeol, der Anfang Dezember überraschend das Kriegsrecht verhängte und inzwischen vom Parlament entmachtet wurde, hatte im Wahlkampf einen KI-Avatar von sich selbst erstellen lassen, der täglich auf Fragen aus der Wählerschaft antwortete. Zu Beginn sprach der Avatar vor allem über Politik, bald aber auch über persönliche Fragen und nannte seine Vorlieben beim Karaoke-Singen. Der Avatar hat den über 60-jährigen Kandidaten jung und hip erscheinen lassen.
Solche Soft Fakes kann man nun als manipulativ verurteilen, weil sie Kandidaten darstellen, als könnten sie Dutzende Sprachen, die sie in Wahrheit nicht beherrschen. Man kann sagen, sie spielten falsche Tatsachen vor, wenn sich die Politiker durch ihre Avatare jünger und freundlicher verkauften, als sie seien.
Oder man sieht die positiven Seiten: Schaffen es Politiker, die Fragen, Probleme und Sorgen der Menschen dank Avataren, die 24 Stunden am Tag erreichbar sind, besser zu verstehen, könnten Soft Fakes der Demokratie auch nützen. Hilft der Fake dem Politiker, niederschwellig erreichbar zu sein, wird er idealerweise zu einem zusätzlichen Instrument der demokratischen Partizipation.
Deepnudes sind ein Problem für Politikerinnen
Ob synthetische Medien also zum Vor- oder zum Nachteil der Demokratie eingesetzt werden, entscheiden die Menschen, die sie verwenden. Sinnvoll wäre es, die Technologie für das Gute zu einzusetzen und das Schlechte, das mit ihr gemacht wird, zu verfolgen.
Zum Beispiel die Kriminellen, die Deepfake-Pornografie von britischen Lokalpolitikerinnen erstellt hatten und die Clips ins Internet luden. Sie schadeten nicht nur den betroffenen Frauen, sondern auch dem demokratischen System. Schliesslich werden sich politikinteressierte Frauen aus der Region nun zweimal überlegen, ob sie wirklich in die Politik einsteigen wollen.
Auch von Kamala Harris kursierten sogenannte Deepnudes während des Wahlkampfs. Auch sie sind das Resultat einer Straftat. Für diese Fälle die Technologie an sich verantwortlich zu machen, greift aber zu kurz. Schliesslich waren hier Kriminelle beteiligt, die sowohl die Technologie wie auch die Anonymität des Internets wissentlich missbrauchten.
Die Grenze zwischen echt und künstlich verschwimmt
Trotzdem ist es noch zu früh, um das Phänomen der Deepfakes als unbedenklich für die Demokratie beiseitezulegen. Denn wie so oft bei neuen Technologien wird erst langsam klar, wie sie langfristig wirken.
In einer Welt, in der Deepfakes immer besser werden, müssen Wählerinnen und Wähler damit umgehen können, dass sie in den sozialen Netzwerken nicht mehr immer klar unterscheiden können, was echt ist und was computergeneriert. Das Grundgefühl, dass man nicht alles glauben kann, was man liest, hört oder sieht, könnte sich grundsätzlich auf das Vertrauen in Informationen auswirken. Aus der Forschung weiss man, was dann passiert: Man glaubt primär jenen Informationen, die ins eigene Weltbild passen.
Politiker können damit echte Fakten anzweifeln oder ihre Lügen, getarnt als «alternative Fakten», verkünden, und profitieren von einem Konzept, das die Politikwissenschaft die «Dividende der Lügner» nennt: Weiss man nicht, was wahr ist und was falsch, kann man von Falschbehauptungen profitieren oder wahre Begebenheiten verleugnen.
Die Entwicklung, dass wahr und gefälscht immer schwieriger zu unterscheiden sind, ist aber wesentlich älter als sämtliche Deepfake-Anwendungen. Die Deepfake-Technologie als Sündenbock für die Entwicklung hinzustellen, wäre gefährlich. Denn damit verpasst man es, wichtige Fragen zu stellen: Warum entfernt sich die traditionelle politische Elite von der Bevölkerung? Was müssen Politiker tun, wenn sie argumentativ nicht mehr gegen populistische Gegenspieler ankommen?
Gerade für die politische Elite sind solche Fragen unangenehm. Viel einfacher ist es, mit dem Finger auf Technologiekonzerne zu zeigen. Wollen wir die Demokratie fit machen für das KI-Zeitalter, ist das aber kontraproduktiv. Weil wir damit die Chancen verpassen, die synthetische Medien bieten, um die Demokratie zu modernisieren.