Donnerstag, Februar 20

Nicht nur Bots, sondern auch echte Menschen verbreiten Fakes und Untergangsstimmung. Wie schnell neutrale Nutzer in die Propaganda abrutschen, zeigt ein Experiment.

«Stell dir vor, Deutschland und Russland wären ein einziges Land, eine riesige Nation, die sich von der Nordsee bis zum Pazifik erstreckt. Mit einer gemeinsamen Regierung, vereinter Wirtschaft und kulturellem Austausch wäre dieses Grossreich eines der mächtigsten Länder der Welt.»

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Dieses Szenario malt der Tiktok-Kanal «alternativeszenarien» und lässt dabei unter anderem unbeantwortet, was das für Polen bedeuten würde. Im KI-generierten Video stehen die Vorzüge eines deutsch-russischen Grossreichs im Vordergrund: wirtschaftliche Macht und Unabhängigkeit vom Rest der Welt. Neun Tage hat es gedauert, bis Lukas auf Tiktok auf das Video gestossen ist.

Lukas ist einer von drei erfundenen Charakteren, mit denen die NZZ in den Wochen vor der deutschen Wahl die Tiktok-Welt erkundet. Nachdem im Dezember die rumänische Präsidentschaftswahl wegen russischer Einflussnahme insbesondere auf Tiktok für ungültig erklärt worden war, stellte sich die Frage: Beeinflusst der Kreml auch die Bundestagswahl? Und wenn ja, würde das überhaupt jemandem auffallen?

Um sich den Antworten auf diese Fragen anzunähern, hat die NZZ Ende Januar drei neue Tiktok-Accounts kreiert: Lukas, Thomas und Ralf. Die Nutzer scrollten täglich etwa zwanzig Minuten durch ihren Feed und verhielten sich dabei möglichst passiv. Sie vergaben keine Herzen, folgten keinen Profilen und leiteten keine Videos weiter. Weil Tiktok trotzdem merkte, dass sie sich für russische Propaganda interessieren, landeten alle drei in einer prorussischen Bubble.

Der Feed beginnt mit einem AfD-Video – und bleibt dabei

Lukas, 36, ist in unserem Versuch ein unentschlossener Wähler, der sich für Inhalte zum Gaza-Krieg interessiert. Doch das Interesse am Nahostkonflikt wird nie bedient. Stattdessen zeigt Tiktok Lukas ganz zu Beginn anhand eines Pro-AfD-Beitrags, wie er auf der Plattform navigieren kann.

Der zweite Beitrag zeigt eine Berglandschaft. Der dritte ein Rezept für einen Eiersalat. Danach fluten AfD-freundliche Inhalte den Feed. Wahlweise sind diese mit Weidels Gesicht oder Stimme unterlegt oder mit blauen Herzen. Und immer wieder Beiträge, in denen Menschenmassen scheinbar skandieren: «Ost, Ost, Ostdeutschland!» Tatsächlich handelt es sich dabei um eine Tonspur von Fussballfans, die in Lukas’ Feed auch immer wieder auftaucht, etwa in Videos von Demonstrierenden oder Konzertbesuchern.

Andere Videos spinnen russlandfreundliche Phantasien, ähnlich wie der eingangs erwähnte Account «alternativeszenarien». Als die NZZ den Betreiber des Profils anschreibt, antwortet er mit Nachrichten, die mit hoher Wahrscheinlichkeit KI-generiert sind.

Eine weitere Art von Beiträgen, die häufig in Lukas’ Feed auftauchen, sind Meldungen über angebliche Straftaten. KI-generierte Stimmen schildern darin Vergewaltigungen oder Morde, die zumeist von Asylsuchenden begangen worden sein sollen.

Viele der Taten liegen lange zurück, andere haben nie stattgefunden. So auch die Meldung über eine angebliche Gruppenvergewaltigung in Kassel des Kanals «beomjoegirok». Er behauptet am 25. Januar, Syrer, Afghanen und Marokkaner hätten eine 19-Jährige vergewaltigt. Bis zum 11. Februar wurde der Beitrag 438 000 Mal angeschaut. Doch das zuständige Polizeipräsidium Nordhessen hat keine Kenntnis von einem solchen Fall, wie es auf Anfrage schreibt. Wenige Tage später ist der Post verschwunden.

Jing Zeng, Professorin für Kommunikation an der Uni Zürich, beschäftigt sich seit Jahren mit Tiktok. Sie ist erstaunt, dass sich dieser Kanal angeblich mit nur neun Videos eine Anhängerschaft von fast 30 000 Nutzern aufgebaut hat. Die erfundene Straftat, das gelöschte Video und die allzu grosse Anhängerschaft könnten Hinweise darauf sein, dass das Konto zu Propagandazwecken verwendet wird.

Russland ist bekannt dafür, Content-Farmen zu betreiben, also Teams von Agenten dafür zu bezahlen, Social-Media-Accounts für westliche Länder zu kreieren und darüber russische Propaganda zu verbreiten. Dabei werden unterhaltsame Videos geteilt, deren Inhalt dazu dient, das Zielland als schwach, chaotisch und gespalten darzustellen. Gewalttätige Ausländer eignen sich dafür besonders gut.

Ob das Profil hinter der erfundenen Vergewaltigung in Kassel tatsächlich in Zusammenhang mit russischer Einflussnahme steht, konnte im Versuch nicht überprüft werden. «Dafür brauchte es eine Analyse des Netzwerks», sagt Zeng.

Solche Analysen macht Tiktok bei seinen eigenen Inhalten. Das Netzwerk sperrte vergangenes Jahr Dutzende «nichtauthentische Accounts», die die Popularität von AfD-Inhalten künstlich steigern wollten. Dies gibt die Plattform in ihrem Transparenzbericht bekannt.

Schlagringe, Messer und ein bisschen Propaganda

Thomas, 35, im Versuch ein unentschlossener Wähler, der sich für Migrationsfragen interessiert, scrollt während sieben Tagen durch Videos von teuren Autos, Ausschnitten von Fussballspielen, Aufnahmen von leichtbekleideten Frauen, etwas später Männern im Krafttraining, Videos mit Anleitungen zur Selbstverteidigung, Filmchen von Boxern.

Nach und nach streut Tiktok in Thomas’ Feed auch Kaufangebote für Kampfgeräte, die in Deutschland auf offener Strasse verboten sind: Schlagringe, Klappmesser, dann auch überlange Säbel, Schwerter, Schlagstöcke.

Politischer Inhalt erscheint erst am achten Tag der Recherche: ein Video eines Profils namens «Blüten Wind». Darin wird die russische Invasion in der Ukraine mit der Nato-Osterweiterung gerechtfertigt. Die weiteren Inhalte des Profils passen zu den Interessen Russlands und bieten viel Anschauungsunterricht für Populismus: Da wird Angst vor einem Atomkrieg heraufbeschworen, gemässigte Politiker werden persönlich angegriffen, Liebesbekundungen für die AfD-Chefin Alice Weidel verbreitet, Selenski als korrupt dargestellt, Rhetorik gegen die reiche Elite verbreitet. Immer und immer wieder wird Frieden in der Ukraine gefordert.

Vermutlich, weil Thomas im Versuch das erste Mal ein Profil mehrere Minuten anschaut, ändert sich sein Feed danach grundlegend. Es kommen Videos des Verschwörungserzählers Daniele Ganser, Deutschland wird als brennendes Land dargestellt, regiert von ignoranten Eliten, die das Volk ausnehmen. Als Retter werden immer wieder die AfD und selten auch das Bündnis Sahra Wagenknecht angeboten.

In den folgenden Tagen scrollt Thomas durch eine Welt, in der Putin nur für eine gerechtere Weltordnung kämpfe, die Jugendkriminalität in Deutschland überborde, Medien absichtlich Lügen verbreiteten. Ob manche der Profile, die diese Videos veröffentlichen, im Auftrag von russischen Agenten betrieben werden, liess sich nicht ermitteln. «Blüten Wind», deren Videos nochmals in Thomas’ Feed auftauchen, betreibt laut eigener Angabe das Profil zum Spass und ohne Unterstützung aus Russland, gibt aber an, manche der Inhalte zugeschickt zu bekommen.

Absturz in die Welt der Erfolgs-Influencer und schönen Russinnen

Ralf, 51, interessiert sich im Versuch für Wirtschaft. Tatsächlich spielt ihm Tiktok kurz nach dem Versuchsbeginn Videos aus, die von Investments und Kryptowährungen handeln: junge Männer, die erzählen, sie seien nun reich und lebten in Dubai. Dazwischen immer wieder mal Fussball.

Videos, die davon handeln, dass Buben in der Schule benachteiligt werden, scheinen zu testen, wo Ralf in Bezug auf Gender-Themen steht. Dann die erste offensichtliche Falschinformation: ein Video, das den Zweiten Weltkrieg mit einer Karte nacherzählt – inhaltlich falsch.

Ab hier geht es schnell. Videos von Nordkorea und der Sorge über den dritten Weltkrieg bringen Ralf in eine düstere Blase. Influencer beklagen, dass die heutigen Frauen Männer manipulieren. Sie geben Tipps, um ernst genommen zu werden, wie «nicht zu viel lächeln». Junge schöne Menschen erklären, warum man sich nicht zu schämen braucht, wenn man AfD wählt. Hin und wieder taucht Sahra Wagenknecht auf. Und immer wieder deutsch-russische Profile: blonde Frauen, die erklären, warum man Russinnen daten sollte.

Und Auswanderer wie Robert Milson. Schenkt man dessen Profil Glauben, hat er seine Ausbildung abgebrochen, durch E-Commerce Geld verdient und ist nach Sotschi gezogen. In seinen Videos stellt er sich und sein Leben in Russland als naturnah und familienbezogen dar.

Deutschland kommt als Referenz vor, als gescheitertes Land. Zum Beispiel postet er ein Video einer Party mit dem Text «Keine Gedanken machen müssen, ob man gleich vom LKW überfahren wird».

Eine Anfrage der NZZ lehnt er ab. Von aussen lässt sich nicht sagen, ob mehr als er selbst hinter seinem Profil steckt. Es ist bekannt, dass Russland ähnliche Influencer unterstützt, zum Beispiel Alina Lipp, die ebenso aus Deutschland nach Russland gezogen ist und nun ein kleines Influencing-Imperium betreibt, das eins zu eins die Sicht der russischen Regierung verbreitet.

Diese Rabbit-Holes sind dunkel – aber sind sie auch eine Gefahr?

Unsere Beispiele zeigen: Fragwürdige Inhalte finden sich auf Tiktok zuhauf. Doch es ist schwer, eine deutliche Linie zwischen Propaganda und authentischem Account zu ziehen. Es gibt wohl unzählige Influencer, die aus eigener Überzeugung für Russland und die AfD Stimmung machen. Aber auch authentische Accounts wie «Blüten Wind» oder Robert Wilson könnten heimlich von Russland gesponsert werden, wie dies auch im jüngsten amerikanischen Wahlkampf geschehen ist.

Zudem ist umstritten, ob die prorussischen Inhalte auf Tiktok und deren Wahlempfehlungen für die AfD und das BSW die demokratische Meinungsbildung tatsächlich beeinflussen.

Forscher wie Leon Erlenhorst, Co-Autor eines neuen Buches zur russischen Desinformation, beschreibt russische Einflussnahme als Teil einer hybriden Kriegsführung gegen den Westen, die schon lange dauert und sich seit dem Angriff auf die Ukraine weiter intensiviert hat. «Wir wissen aus Leaks, dass ein explizites Ziel des Kremls ist, die AfD auf über 20 Prozent zu bringen», sagt Erlenhorst. Seiner Ansicht nach muss sich Deutschland schützen, etwa durch eine Stelle, die gezielt Informationen zu Propaganda sammelt und Netzwerke lahmlegen kann. Vorbild ist für ihn die schwedische Agentur für psychologische Verteidigung.

Christian Hoffmann, Professor für Kommunikationsmanagement an der Universität Leipzig, sieht das anders. Er sagt: «Die ständige Berichterstattung über Desinformation ist schädlicher als die Desinformation selbst.» Natürlich gebe es auch auf Tiktok Videos, die im Sinne Russlands Falschnachrichten verbreiteten. «Aber die meisten deutschen Wähler kommen damit kaum je in Kontakt. Selbst wenn sich ab und zu ein Video in ihren Feed verirren sollte: Ihre politische Grundhaltung ändern sie deswegen nicht.»

Jing Zeng gibt weiter zu bedenken, dass Experimente wie dieses kein realistisches Bild von Tiktok liefern, weil man sich dabei nicht ganz so verhält wie ein authentischer Nutzer. «Es ist unmöglich, da keine Verzerrungen reinzubringen.» Auch Tiktok selbst stellt die Aussagekraft solcher Versuche infrage.

Ganz so düster wie die Welt von Thomas, Lukas und Ralf dürften die wenigsten Tiktok-Feeds sein. Und doch wurden allein die Videos der hier näher beschriebenen Accounts insgesamt etwa 8 Millionen Mal gesehen. Die prorussische und AfD-freundliche Nische von Tiktok floriert.

Exit mobile version