Was nach der Tötung der drei Mädchen in Southport im Internet geschah, ist ein Lehrstück über die Auswirkung von Fake News in Zeiten eines Informationsvakuums. Daraus lernen müssen sowohl Firmen wie auch Nutzer.
Ein grauenhafter Gewaltakt versetzte Grossbritannien vergangene Woche in Schockstarre. Warum sticht ein Jugendlicher wahllos Mädchen nieder? Was ist sein Motiv? Wer ist er? Und wie kann es sein, dass die Behörden die Tat nicht verhindern konnten? Die Fragen waren schnell da. Doch die Antworten liessen auf sich warten.
Das ist typisch für Attentate, Amokläufe, Terroranschläge: Das Informationsbedürfnis der Menschen unmittelbar nach den Greueltaten ist riesig. Doch die Sachlage ist erst einmal unklar, Informationen aus zuverlässigen Quellen wie der Polizei sind nicht unmittelbar erhältlich. Es entsteht ein Informationsvakuum. Und dies nutzen Extremisten, Opportunisten und fremde Mächte, um mit erfundenen Informationen viel Aufmerksamkeit zu erzeugen, Menschen aufzuhetzen und Geld zu verdienen.
So geschehen in England vergangene Woche. Alles beginnt mit einem Post eines Linkedin-Nutzers, laut eigener Angabe der Vater von zwei Mädchen, die beim Gewaltakt in Southport anwesend waren. Er schrieb, der Angreifer sei ein «Migrant» gewesen. Weiter solle Grossbritannien nun die Grenzen «komplett schliessen». So jedenfalls berichtet es das britische Institute for Stategic Dialogue, eine Organisation, die unter anderem die Verbreitung von Desinformation im Internet beobachtet.
Ein anderer Nutzer teilt einen Screenshot des Linkedin-Posts auf X. Er behauptet, ohne eine Quelle zu nennen, er wisse, wie der Täter heisse: Ali al-Shakati. Angeblich sei er erst kürzlich mit einem Boot nach England migriert. Weiter habe er bereits vor der Tat unter Beobachtung des Nachrichtendienstes MI6 gestanden.
Hinter der Falschinformation steckten diskriminierende Narrative: Ausländer sind gewaltbereit, Bootsmigranten suspekt, besonders solche, deren Namen muslimisch klingen. Weiter versagt der Staat darin, unschuldige Britinnen und Briten vor gefährlichen Tätern zu schützen.
Daraus resultiert in einer bestimmten Gesellschaftsschicht in Grossbritannien eine Mischung aus Angst, Wut und Ohnmacht, die die Menschen in einen Aktionismus versetzt. Innerhalb eines Tages veröffentlichen rund 18 000 verschiedene Nutzerkonten Posts mit dem erfundenen Namen Ali al-Shakati.
Dann springt ein zwielichtiger Akteur auf die Aktualität: Channel3Now, eine Webseite offenbar mit Verbindungen zu Russland und Pakistan, die aussieht wie ein Newsportal, aber keine Journalisten beschäftigt, greift das Gerücht in einem inzwischen gelöschten Artikel auf und teilt diesen wiederum auf X. Der Post wird fast zwei Millionen Mal aufgerufen.
Soziale Netzwerke empfehlen den erfundenen Namen
Die Empörung verbreitet sich online aber nicht nur, weil viele Leute die erfundene Geschichte teilen, sondern auch, weil Empfehlungsalgorithmen der sozialen Netzwerke auf die Falschnachricht aufspringen.
Auf X erscheint der erfundene Name als Suchbegriff in den Trends und verschafft ihm so mehr Aufmerksamkeit. Und wer auf Tiktok das Wort «Southport» in das Suchfeld eingibt, erhält als Vorschlag in der Rubrik «Andere Nutzer suchten» den Suchbegriff «Ali al-Shakati in Southport festgenommen» – auch noch neun Stunden, nachdem die Polizei mitgeteilt hatte, dass der Name erfunden sei, und die Öffentlichkeit gebeten hatte, Spekulationen über den Täter zu unterlassen.
Das ist stossend. Es ist das eine, wenn soziale Netzwerke möglichst viel Meinungsfreiheit ermöglichen und auch kontroverse Wortmeldungen stehen lassen. Aber es ist etwas anderes, Nutzern aktiv Falschnachrichten zu empfehlen – zu einem Zeitpunkt, an dem bereits klar war, dass Name und Hintergrund des Täters frei erfunden waren. Denn durch das proaktive Handeln der Plattformen erreichte die Falschinformation auch Leute, die ihr ohne Empfehlungsalgorithmus vielleicht nie begegnet wären.
Für Tiktok und X hat dies eine wirtschaftliche Logik: Die Plattformen verdienen Geld damit, wenn Nutzerinnen und Nutzer möglichst lange auf ihren Websites und Apps verweilen. Wer dort empörende Dinge liest, bleibt länger online, das weiss man aus der jahrelangen Beobachtung. Damit ist davon auszugehen, dass sich die Netzwerke an den Falschinformationen bereichern konnten.
Britische Politikerinnen und Politiker wie die Innenministerin Yvette Cooper kritisieren soziale Netzwerke nun zu Recht und sagen, diese hätten schneller reagieren, Falschinformation als solche kennzeichnen und Aufrufe zu Gewalt löschen müssen.
Dennoch greift es zu kurz, den Plattformen die gesamte Verantwortung für die Eskalation der Gewalt zuzuschreiben. Schliesslich haben offenbar Tausende britische Nutzerinnen und Nutzer die erfundene Story über den kriminellen Migranten leichtgläubig geteilt, ohne vorher den Wahrheitsgehalt überprüft zu haben.
Das zeigt: Nutzerinnen und Nutzer von sozialen Netzwerken müssen noch mehr auf die Konsequenzen ihres Online-Verhaltens achten. Wer ohne eigene Recherche unbestätigte Gerüchte verbreitet, trägt eine Mitverantwortung an der Eskalation.