Sonntag, Oktober 27

Kurz vor dem Urnengang intensivieren ausländische Akteure ihre Versuche, die amerikanischen Wahlen zu beeinflussen. Die Geheimdienste erwarten am Wahltag zudem Aufrufe zu Protesten und Gewalt.

Das Video beginnt mit emotionaler Geigenmusik. Im Bild: Ein Mann vor der Flagge Sambias, angeblich ein Ranger eines Safari-Parks. Er spricht über Spitzmaulnashörner, die vom Aussterben bedroht sind. Dann berichtet er Brisantes: Ende März 2023 sei «eine weibliche amerikanische Politikerin» gekommen, «ihr Name war Kamala». Sie habe an einer Trophäen-Jagd teilgenommen. Als die Gruppe auf ein junges Spitzmaulnashorn getroffen sei, habe sie «irgendwie entschieden, einfach zu schiessen». Dabei sei die Jagd auf Spitzmaulnashörner streng verboten. So habe der Park ein junges Nashorn verloren, «sein Name war Casuba».

Das Video ist inszeniert, die Vorwürfe darin frei erfunden. In Umlauf gebracht wurde es Ende September von einer russischen Gruppe, die Storm-1516 genannt wird. Dies schreibt Microsoft in einem neuen Bericht über die ausländische Einflussnahme bei den amerikanischen Wahlen.

Seit dem ersten Upload am 25. September zirkuliert das Video im Netz. Auf Tiktok war es bis mindestens am Freitag weiterhin online, ohne Warnhinweis. Es wurde Tausende Male geliked und Hunderte Male kommentiert. Auch andere soziale Netzwerke verbreiteten die falsche Anschuldigung.

«Es ist zwar beunruhigend, dass Tiktok das Video nicht als Fake gekennzeichnet hat», sagt Philipp Lorenz-Spreen, der an der Technischen Universität Dresden unter anderem zur Wirkung von Desinformation forscht. «Aber leider überrascht es mich nicht.» Die Plattformen seien schlecht darin, Desinformation schnell zu erkennen und als solche zu kennzeichnen.

Tiktok sagt auf Anfrage, dass das Video nicht algorithmisch empfohlen werde, dass man also danach suchen müsse, um es zu finden. Weiter verweist die Firma auf einen Bericht, wonach allein im September mehr als 160 neue Profile blockiert worden seien, die Teil russischer Beeinflussungsoperationen gewesen seien.

Video mit Schauspielern hat mehr Reichweite als Deepfake

Der Fake mit dem Nashorn ist nicht das einzige Video, das russische Gruppen in Umlauf gebracht haben. Bereits Anfang September tauchte das inszenierte Video einer Frau im Rollstuhl auf, die Vizepräsidentin Kamala Harris beschuldigt, sie vor Jahren angefahren und nach dem Unfall Fahrerflucht begangen zu haben. Dieses Video sei von Millionen von Nutzern gesehen worden, schreibt Microsoft.

Bemerkenswert ist, dass es sich bei beiden Videos nicht um mit künstlicher Intelligenz generierte Deepfakes handelt. Die russischen Gruppen haben stattdessen mutmasslich Schauspieler eingesetzt, um die Vorwürfe in den Videos zu konstruieren. Das zeige, schreibt Microsoft, dass herkömmliche und einfache Techniken zumindest heute noch grössere Wirkung und Reichweite erreichten als KI-generierte Inhalte.

Zwar nutzen russische Gruppen auch KI. Allerdings geschieht dies laut den amerikanischen Geheimdiensten eher, um Inhalte zu verändern, als um sie komplett neu zu generieren. So hat Storm-1516 im Video einer Rede von Harris die Tonspur mittels KI verändert, um einen rüden Hinweis auf den Mordanschlag gegen Trump einzubauen. Das Video ist weiterhin auf Twitter online.

Auch Iran und China mischen sich ein

Microsoft erwähnt in dem Bericht auch Aktionen von China. Diese richten sich schwerpunktmässig gegen einzelne republikanische Politiker, die sich in der Vergangenheit kritisch gegenüber China beziehungsweise dem kommunistischen Regime geäussert hatten. Die Kampagne, die unter dem Namen Spamouflage bekannt ist, bezeichnet die Politiker als korrupt oder kritisiert sie in judenfeindlichen Posts für die Unterstützung Israels.

Die chinesische Kampagne sei bisher allerdings nur von sehr wenigen Nutzern angeschaut, geteilt oder kommentiert worden, schreibt Microsoft. Zu diesem Schluss kamen bereits frühere Untersuchungen zu Spamouflage. Der Forscher Lorenz-Spreen sagt dazu: «Im Gunde ist es unmöglich, zu wissen, welche ausländischen Kampagnen erfolgreich sind.» Wir hätten keine Übersicht über alle Post dieser Akteure, könnten nicht nachverfolgen, wie weit sie in verschlüsselten Chats oder geschlossenen Gruppen herumgereicht würden, und wir wüssten zudem nicht, von wem sie wie lange angeschaut worden seien.

Einzelne Videos wie jenes von der Trophäenjagd würden die Wahlentscheidung von Stimmbürgern nicht massgeblich beeinflussen, glaubt Lorenz-Spreen. «Wir wissen aber aus der Forschung: Je mehr man das gleiche Narrativ hört, desto eher glaubt man es.» Gerade Russland sei mit Plattformen wie Russia Today (RT) oder Sputnik schon lange in den USA aktiv, sagt Lorenz-Spreen. «Solche Kampagnen erreichen ihre Wirksamkeit oft über Jahre oder gar Jahrzehnte.»

Interessant ist dabei, dass auch bei den gefälschten Inhalten russischer Kampagnen die Journalisten von Plattformen wie RT eine wichtige Rolle spielen. So hat im Falle des falschen Nashorn-Videos ein Korrespondent von RT die Geschichte auf den sozialen Plattformen verbreitet. Dieses koordinierte Vorgehen könne, so Microsoft, in gewissen Fällen eine viel grössere Reichweite für Desinformation schaffen.

USA sind besser vorbereitet als bei früheren Wahlen

Bisher haben die USA gezeigt, dass sie im Wahlkampf besser gegen ausländische Einflussnahme gerüstet sind als bei früheren Wahlen. Die Medien lassen sich nicht mehr so leicht durch verdeckte Operationen instrumentalisieren, wie das etwa 2016 noch der Fall gewesen war. Damals verschafften sich russische Nachrichtendienste Zugang zu E-Mails der Demokraten und veröffentlichten diese. Die Medien berichteten ausführlich über den Inhalt der E-Mails.

Anders im Sommer 2024: Als eine iranische Gruppe den Medien ein internes Dokument der Republikaner zuspielte, berichteten die Journalisten nicht über den Inhalt des geleakten Dokuments, sondern über die iranische Beeinflussungsaktion. Die Kampagne verfehlte ihre Wirkung.

Die amerikanischen Behörden verhalten sich ebenfalls geschickter angesichts der ausländischen Operationen. Sie reagierten bisher rasch und mit grosser Deutlichkeit, etwa als sie Ende September gegen drei Iraner wegen Einflussnahme Anklage erhoben.

Die Geheimdienste und das FBI bedienen sich zudem der Strategie des Pre-Bunkings: Sie machen mögliche Arten der Einflussnahme öffentlich, bevor diese tatsächlich passiert. So soll die Bevölkerung sensibilisiert werden.

Die Behörden betonen seit einigen Tagen etwa, dass ausländische Akteure nach der Wahl behaupten könnten, es habe Angriffe auf die elektronischen Wahlsysteme gegeben. Russische Gruppen planen laut den amerikanischen Geheimdiensten zudem Aktionen, um Gewalt zu schüren oder das demokratische System infrage zu stellen.

Microsoft rechnet ebenfalls um den Wahltag am 5. November herum mit zusätzlichen Operationen. So hat die iranische Gruppe Cotton Sandstorm bei den US-Wahlen vor vier Jahren zum Beispiel seine Beeinflussungsaktion erst zwei Wochen vor dem Wahltag gestartet. Microsoft geht davon aus, dass diese Gruppe «in Kürze eine weitere Reihe von Einflussoperationen starten wird». Die amerikanischen Behörden werden in den nächsten Tagen und Wochen wachsam bleiben müssen.

Exit mobile version