Montag, Januar 20

Explizite Inhalte, fehlende Kontrollen: eine App als «Brandbeschleuniger» für psychische Probleme.

Zehn Minuten ist Lena auf Tiktok, als sie das erste Mal gefragt wird, ob sie sich das Leben nehmen will.

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

In diesen zehn Minuten hat Lena – 14-jährig, aus Zürich – nichts getan, ausser zu scrollen. Sie ist niemandem gefolgt, hat keine Freundschaftsanfragen verschickt, nichts gepostet oder gelikt. Und doch ist sie schon mitten drin in einer Welt, in der es bald nur noch um eines gehen wird: Schmerzen, Leiden und den Tod.

Ein dunkles Zimmer, ein Tisch, ein Notizbuch. Darüber in weiss-roter Schrift ein Dialog. «Du bist mir wichtig.» – «Bin ich nicht.» – «Ich liebe dich.» – «Tust du nicht.» – «Hast du dir etwas angetan?» – «Das ist dir doch egal.» (123 000 Likes)

Lena sieht Posts wie diesen. Dann wischt sie hoch, und das nächste Video erscheint. Ein unendlicher Feed, kuratiert nicht durch sie, sondern durch den Tiktok-Algorithmus. Der analysiert in Echtzeit, wann Lena weiterscrollt und was sie sich bis zum Schluss anschaut.

Davon zeigt ihr der Algorithmus dann mehr und mehr.

Ein Wald im Dämmerlicht, langsam bewegt sich die Kamera zwischen Bäumen, über Wurzeln. Beschwörend fragt eine Mädchenstimme: «Willst du dich umbringen?» Dann rezitiert sie auf Englisch einen langen, melancholischen Monolog darüber, wie sehr diese Frage sie erleichtere. (13 000 Likes)

Lenas Tiktok-Reise beginnt mit melancholischen Videos, in denen vieles im Ungefähren bleibt. Videos zu Problemen in der Schule, Problemen mit Leistungsdruck. Düstere Landschaftsstimmungen mit dramatischer Musik. Tränenüberströmte Gesichter.

Und Bildunterschriften wie: «Ich, wenn ich eine Panikattacke habe.» – «Ich, als ich nicht mehr lange leben wollte.» – «Ich, wenn ich realisiere, dass das süsse und glückliche Mädchen, das ich einmal war, zerstört ist.»

Hier bekommen Sie Hilfe:

Wenn Sie selbst Suizidgedanken haben oder jemanden kennen, der Unterstützung benötigt, wenden Sie sich bitte an die Berater der Dargebotenen Hand. Sie können diese vertraulich und rund um die Uhr telefonisch unter der Nummer 143 erreichen. Spezielle Hilfe für Kinder und Jugendliche gibt es unter der Nummer 147.

Lena, die all das sieht, gibt es in Wirklichkeit nicht. Sie ist ein Avatar, kreiert von der NZZ, um die Online-Welt mit den Augen einer 14-Jährigen zu sehen.

Denn obwohl es Lena nicht gibt, sind die psychischen Probleme ihrer Generation real. Die Zahl der psychiatrischen Hospitalisationen von Jugendlichen steigt in der Schweiz seit Jahren, besonders bei jungen Frauen. Umfragen zeigen, dass es unter 25-Jährigen psychisch immer schlechter geht.

Und immer mehr Tiktok-Kritiker geben der App und ihrem Algorithmus eine Mitschuld daran. Umso mehr jetzt, da die App in den USA wegen ihrer Nähe zum chinesischen Regime – zumindest vorübergehend – verboten wurde.

Der Algorithmus

Auf Tiktok läuft immer etwas. Es ist eine Welt, die fröhlich und bunt sein kann, voller Tanzvideos, Comedy-Einlagen und Streichen. Und doch braucht es wenig, bis diese Welt düster wird.

Es reicht zum Beispiel, 14 Jahre alt und in melancholischer Stimmung zu sein. So wie Lena, unser Avatar. Sie schaut sich traurige Inhalte, solche zu Selbstzweifeln und Ziellosigkeit, bis zum Schluss an. Sie scrollt zurück, klickt sich durch weitere Videos mit derselben Musik, denselben Hashtags. Ein Verhalten, wie es typisch ist für einen Teenager in einer psychisch vulnerablen Phase.

Der Algorithmus der App erkennt Lenas Vorlieben und führt sie zu Inhalten, die diese Stimmung reflektieren, bestätigen und – so sagen Tiktok-Kritiker – auch verstärken.

Ein Strand, eine Reling, die aufs Meer hinausführt. Es ist Nacht, Vollmond. Über dem Horizont steht auf Englisch: «Ich werde meinen Kampf wohl verlieren. Wenn ich nicht mehr da bin, will ich, dass du für mich lebst, deine Ziele erreichst. Gib nicht auf, nur weil ich es getan habe.» (312 000 Likes)

Eine Studie von Amnesty International ergab 2023, dass 13-jährige User auf Tiktok extrem schnell an Inhalte geraten, die problematisch für ihre psychische Gesundheit sind.

Die Forscher setzten automatisierte Fake-Accounts auf, die sich als Jugendliche mit Interesse an 64 Schlagworten wie «Angst», «Trauer» oder «Depression» ausgaben. Nach wenigen Stunden bestand die Hälfte ihres Feeds aus Videos dazu, darunter viele, «die Suizid normalisierten oder romantisierten». Tiktok selbst stellt die Aussagekraft solcher Versuche infrage. Die meisten Videos zu psychischer Gesundheit konzentrierten sich darauf, «gelebte Erfahrungen zu teilen, ohne sie zu romantisieren», schreibt das Unternehmen auf Anfrage.

Eine junge Frau in grauem Kapuzenpulli mit makellosem Eyeliner. Sie blickt in die Kamera, den Kopf schräg, das braune Haar in wilden Strähnen. Darüber der Text: «Und falls ich bald weg bin, bekommst du den schönsten Abschiedsbrief von allen.» (29 000 Likes)

Wenige Klicks von solchen Posts entfernt – über einen Hashtag etwa oder einen von Tiktok vorgeschlagenen Suchbegriff – wird es noch expliziter. Frauen, die sich übergeben. Der Satz: «Nichts schmeckt so gut, wie Dünnsein sich anfühlt.» Tipps dazu, wie man zerschnittene Körperteile verbirgt.

Die Macher der Tiktok-App betonen gegenüber der NZZ, dass sie gefährliche Inhalte entfernen, alles Nicht-Jugendfreie einer Altersguillotine unterwerfen und keine Posts dulden würden, die Suizidpläne und selbstverletzendes Verhalten enthielten oder förderten.

Doch bei der Durchsetzung dieser Grundsätze scheitert die Plattform, wie das Experiment der NZZ zeigt. App-Nutzer haben rund um die Themen Suizid und Selbstverletzung einen eigenen Sprachcode entwickelt: Abkürzungen, absichtliche Fehlschreibungen oder bestimmte Emoji-Kombinationen, dank denen Suizidvideos den Filtern von Tiktok entgehen.

Nach einer Stunde auf der App kennt Lena, unser Avatar, viele von ihnen – ohne grosse Anstrengung, ohne aufwendige Suche.

Traurig und auf Tiktok sein – das reicht.

Die Challenge

Lenas Feed, nach eineinhalb Stunden auf Tiktok. Ein kryptischer Post mit 21 000 Likes erscheint. Er berichtet von einer «Challenge» – einer Art öffentlich auf der App zelebriertem Wettbewerb. Solche gibt es auf Tiktok viele, die meisten sind harmlos. Es geht um Tänze, Streiche, Geschicklichkeit.

Doch bei diesem Post ist etwas anders: Bei dieser Challenge geht es um einen öffentlich angekündigten, als Wettbewerb zelebrierten Suizid. Mehr Details nennt die NZZ hier bewusst nicht, um keine Nachahmer zu inspirieren. Nur so viel: Durch den Post und die Kommentare darunter erfährt Lena im Handumdrehen, wie diese und ähnliche Challenges funktionieren – und versteht ab dann auch jede Anspielung darauf in weniger expliziten Videos.

Solche Challenges haben ernsthafte Auswirkungen. Jede dritte Tiktok-Challenge ist gemäss einer deutschen Studie potenziell schädlich, jede hundertste potenziell tödlich.

Das weiss auch Benjamin Dubno, der Ärztliche Direktor der Integrierten Psychiatrie Winterthur (IPW). Dort musste die Akutpsychiatrie für Jugendliche in den vergangenen Jahren stark ausgebaut werden. Die häufigsten Gründe für eine Einweisung: Angststörungen, Depressionen und Suizidalität. Dubno sagt: «Was online vorgemacht wird, hat einen direkten Einfluss auf das, was Jugendliche im echten Leben tun.»

Ein handgeschriebener Brief. Schönschrift auf zerknülltem A4-Papier. «Es tut mir wirklich leid, aber ich musste es tun», steht da. Dann verspricht die Schreiberin ihrer Freundin ihre Kleider und ihr Make-up. «Liebe Grüsse», steht am Schluss, daneben ein gemaltes Herzchen. Unter dem Post steht: «Vermisse dich so sehr.» (60 000 Likes)

Der Psychiater Dubno sagt, es gebe regelrechte Trends bei den Methoden, mit denen jugendliche Patienten versuchten, sich zu verletzen oder sich das Leben zu nehmen. Und diese hingen direkt mit Challenges in sozialen Netzwerken wie Tiktok zusammen.

Das zeigt sich auch in Lenas Feed. Detaillierte Suizidpläne sind dort ebenso zu sehen wie Fotos von möglichen Arten, sie in die Tat umzusetzen. Versehen mit expliziten Botschaften, das auch tun zu wollen.

Tiktok schreibt, die eigenen Richtlinien verböten «Inhalte, die gefährliche Handlungen und Challenges zeigen oder fördern». Über 90 Prozent davon entferne man innert 24 Stunden.

Der Filter

Australien hat Tiktok für unter 16-Jährige verboten. In den USA haben Hunderte Eltern von Suizidopfern gegen Tech-Firmen geklagt. Der Surgeon General, der oberste Gesundheitsbeauftragte des Landes, bezeichnete soziale Netzwerke als «tiefgreifendes Risiko für die psychische Gesundheit von Kindern und Jugendlichen».

Und doch fehlt abschliessende wissenschaftliche Evidenz dafür, dass die viele Online-Zeit Jugendlichen insgesamt schadet (oder nützt). Manche Studien liefern dafür Indizien, andere nicht.

In Zürcher Jugendpsychiatrien vermuten die Ärztinnen und Ärzte denn auch einen spezifischeren Effekt: Die App, für viele Jugendliche harmlos, schade jenen, denen es schon psychisch schlechtgehe. Diese Gruppe, das wiederum ist belegt, verbringt tendenziell mehr Zeit in sozialen Netzwerken.

Der Screenshot einer Statistik zur Weltbevölkerung. Darin zwei Zahlen, mit dickem rotem Stift umkreist: «Tote dieses Jahr» und «Tote heute». Dazu ein Rap-Song und der Schriftzug: «Du willst einer davon sein.» (6000 Likes)

Der Psychiater Benjamin Dubno von der IPW beobachtet, dass übermässiger Tiktok-Konsum bereits angeschlagene Jugendliche in eine Spirale aus negativen Gedanken und negativem Content ziehen kann. «Der Algorithmus verstärkt ihre Probleme. Er ist sehr gut darin, zu erkennen, wovor Jugendliche Angst haben – und zeigt ihnen dann immer mehr davon.»

Wie andere Experten warnt Dubno jedoch davor, sozialen Netzwerken wie Tiktok die alleinige Schuld an den zunehmenden psychischen Problemen von Jugendlichen zu geben.

«Die psychische Krise der Jugend hat viele Ursachen», sagt er. Weniger stabile Familienstrukturen, Angst vor globalen Krisen, ein zunehmend behütender Erziehungsstil: All das spiele eine Rolle. «Gleichzeitig ist klar: Bei vulnerablen Jugendlichen wirken Algorithmen wie der von Tiktok oftmals als Brandbeschleuniger.»

Tiktok dagegen betont, man wolle «diejenigen Menschen unterstützen, die ihre persönlichen Erfahrungen auf sichere Art und Weise teilen möchten».

Ein Monitor mit grüner Herzschlagkurve, wie im Krankenhaus. Dazu der Text: «Wenn diese Linie gerade wird, wird dich jeder lieben.» «Realität», schreibt eine Userin darunter. «Hoffentlich kommt meine Linie bald», schreibt ein anderer. (1000 Likes)

Anders als in Australien gibt es in Europa kein Tiktok-Verbot für Jugendliche. Die Europäische Union und Grossbritannien haben jedoch schärfere Regeln beschlossen, die die App zur Entfernung gefährlicher Inhalte verpflichten. Ein entsprechendes Gesetz für die Schweiz liegt, obwohl seit Jahren angekündigt, noch nicht vor.

Die Filter der App bleiben derweil lückenhaft. Das zeigen nicht nur Berichte von Nichtregierungsorganisationen, sondern auch die Erfahrungen von Lena, unserem Avatar.

Das Selfie einer jungen Frau. Schwarze Haare, schwarzes Kleid, Goldkette. «Die Schmerzen hören endlich auf», steht darüber. «Was ist passiert, gestern waren wir alle doch noch Kinder», schreibt jemand darunter. (66 000 Likes)

Unter den Posts in Lenas Feed schlägt Tiktok regelmässig Suchbegriffe vor: «Mir geht es psychisch nicht gut», «keine Kraft mehr» oder «Körpergefühl loswerden» zum Beispiel.

Inhalte zu Suizid und Selbstverletzung sind weder gesperrt noch mit Warnhinweisen versehen. Narbenübersäte Körperteile erhalten Tausende von Likes. Selbst Tipps dazu, wie man unauffällig an gefährliche Gegenstände kommt und sich damit verletzt, bleiben stehen. Und das, obwohl Tiktok angibt, über 1,5 Millionen Posts pro Tag zu löschen.

Einen einzigen als problematisch markierten Kommentar sieht Lena während ihrer Zeit auf Tiktok. Er lautet: «Ich liebe dich.»

Tiktok, von der NZZ mit konkreten Beispielen konfrontiert, schreibt: «Wir haben Inhalte entfernt, die gegen unsere Richtlinien verstossen.» Das Unternehmen investiere im grossen Stil in Sicherheit und verbessere die eigenen Filter laufend. Angesichts des grossen Moderationsaufwands mache man aber «gelegentlich Fehler».

Der Ausweg

Gut eine Woche ist Lena unterdessen auf Tiktok unterwegs. Sie kennt die Emoji-Codes, die Symbole, Filter und Challenges, mit denen man über Selbstverletzungen spricht oder sein nahes Ende ankündigt. Im Dauer-Loop hört sie die dazugehörigen Song-Schnipsel, die von einer verlorenen Jugend und einem aussichtslosen Kampf berichten.

Sie ist Dutzenden Kommentarschreibern begegnet, die von ihren Suizidversuchen berichten – teils bedauernd, teils prahlend. Wieder und wieder wurde sie gefragt, ob sie sich töten wolle, ob 14 Jahre Leben nicht genug seien. Sie hat unzählige Abschiedsbriefe und Suizidankündigungen gelesen. Was davon echt ist und was nicht, weiss sie nicht. Sie kann es nicht wissen.

Ein aufgeschnittener Granatapfel, aus dem roter Saft tropft. Ein roter Fleck auf dem Schneidbrett. Dazu der Text: «Ein bekanntes Gefühl . . .» Und der Hashtag #tired – müde. (21 000 Likes)

Auch Positives hat sie immer wieder gesehen: Comedy-Sketches, die Therapiesitzungen imitieren. Erklärvideos zu seltenen psychischen Krankheiten. Ermutigungen wie «Glaub an dich!» oder «Du packst das!».

Doch selbst was nach Ausweg tönt, bestätigt am Ende nur die – faktisch falsche – Botschaft der düsteren Videos: Psychische Probleme, der Wunsch nach Selbstverletzung und Suizidgedanken seien überall. Man kann ihnen als Teenager angeblich nicht entfliehen. Videos, die diese Prämisse infrage stellen, die sich um etwas anderes drehen – sie sind fast ganz aus Lenas Feed verschwunden.

Einer der letzten Posts, den sie auf Tiktok sieht, zeigt ein hübsches rosa Mäschchen. Der Text verspricht «Dinge, die du tun kannst, um dich nicht selbst zu verletzen» (8000 Likes).

Darunter sind: einen Spaziergang machen, Musik hören, duschen, ein Nickerchen einlegen, ein Buch lesen. Und: weiter auf Tiktok scrollen.

Exit mobile version