Samstag, Januar 11

Der Meta-Konzern gibt sich neue Richtlinien dafür, was auf seinen Plattformen gesagt werden darf, und führt ein neues System zur Faktenprüfung ein. Was ist nun zu erwarten?

«Trans-Personen sind nicht echt. Sie sind geisteskrank.» «Schwule sind nicht normal.» und «Frauen sind verrückt.» Aussagen wie diese wurden bisher von Facebook und Instagram gelöscht. Seit Dienstag lässt sie der Mutterkonzern Meta auf seinen Plattformen zu.

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Dies schreibt der amerikanische Journalist Casey Newton in seinem Newsletter «Platformer». Ihm wurden interne Dokumente zugespielt, die die neuen Moderationsrichtlinen von Meta erörtern. Die aktuelle Version der Verhaltensrichtlinien bestätigt die neue Freiheit: Demnach dürfen Frauen nun als Haushaltsgerät bezeichnet werden.

Erlaubt sind weiter auch ausgrenzende Aussagen zu Trans-Personen und nicht-binären Menschen: «Es gibt keine Transkinder», beispielsweise. Und auch «diese ganze nicht-binäre Sache ist erfunden. Diese Leute gibt es nicht, sie brauchen nur eine Therapie» wird neuerdings auf den Plattformen toleriert.

Seit 2018 veröffentlicht und aktualisiert Meta in unregelmässigen Abständen seine Verhaltensrichtlinien. In den vergangenen Jahren wurden diese Regeln vor allem erweitert, verschärft und präzisiert. Sehr detailliert listete die Version von Februar 2024 noch unerwünschte Kraftausdrücke wie «bitch» und Beleidigungen auf, die Meta in seinen sozialen Netzwerken nicht lesen wollte. Nun wurden viele Verbote gestrichen und vereinfacht.

Entmenschlichende Sprache bleibt verboten, ausser bei Trans-Personen

Weiterhin verboten bleibt allerdings die Nutzung «entmenschlichender Sprache», wobei nun erlaubt werden soll, dass Trans-Personen als «es» bezeichnet werden.

Beleidigungen, Verachtung, Beschimpfungen und Aufrufe zur Ausgrenzung, wenn sie sich gegen Personen oder Gruppen mit gewissen Eigenschaften richten, will der Konzern aber weiterhin von seinen Plattformen entfernen. Als Beispiel nennt die Richtlinie, dass Juden nicht als Ratten, Mexikaner nicht als Würmer und Afroamerikaner nicht als Affen bezeichnet werden dürfen.

Nebst den Änderungen bei der erlaubten Sprachwahl will Zuckerberg ein neues System einführen, wie diese anstössige Botschaften und Falschnachrichten erkannt werden. Bisher erkannten Algorithmen des Meta-Konzerns unerwünschte Posts löschten diese bei Bedarf. Für Falschinformationen, die in ihrer Sprachwahl nicht anstössig waren, aber Falschnachrichten oder Desinformation verbreiteten, arbeitete Meta mit externen Faktenprüfern zusammen. Im deutschen Sprachraum sind die Presseagenturen DPA und AFP damit beauftragt, sowie das Recherche-Portal «Correctiv».

Nun will Zuckerberg bei der Erkennung und Korrektur von Falschnachrichten auf die Schwarmintelligenz der der Nutzerinnen und Nutzer setzt. Zuckerberg kündigte an, ein System aufbauen zu wollen, das jenem der Plattform X ähnelt.

Vorbild X: So funktionieren die «Community Notes»

Das System von X funktioniert so: Verfasst ein Nutzer einen Tweet, der irreführend oder falsch ist, können andere Nutzer dies beanstanden und richtigstellen. Die Anmerkung wird dann als sogenannte «Community Note» gleich unter dem Tweet angezeigt, unter dem Warnhinweis «Leser haben Kontext hinzugefügt, der ihrer Meinung nach für andere wissenswert wäre». Oft werden dort Zeitungsartikel oder Wikipedia-Seiten verlinkt und auch Faktenprüfer zitiert, die bisher noch von Meta finanziert wurden.

Für die Nutzer, die solche Community Notes verfassen, gibt es eine eigene Plattform, die getrennt ist vom öffentlichen X. Dort können sich Mitglieder anonym austauschen und Texte, sogenannte Notes, zur Korrektur eines irreführenden Tweets verfassen. Empfinden ausreichend Nutzer diese Note als hilfreich, wird sie auf X publiziert.

Damit eine Note veröffentlicht wird, muss sie von Nutzern mit unterschiedlichen Meinungen positiv bewertet werden. Um die Haltung der Nutzer zu erörtern, ordnet X jedem Nutzer aufgrund seines früheren Abstimmungsverhaltens eine bestimmte Perspektive zu. So soll erreicht werden, dass nur politisch neutrale und richtige Notes publiziert werden.

Auch nach der Publikation gibt es einen Korrekturmechanismus: Alle X-Nutzer können eine Bewertung abgeben, wenn sie eine Community Note sehen. Empfinden sie die Korrektur als unangebracht, können sie dies melden. Damit hat X ein zweistufiges Korrektiv, das die gesamte X-Nutzerschaft einbezieht. Ein ähnliches System könnte auch Meta zukünftig einführen.

Community Notes sind langsam, aber basisdemokratisch

Wie gut das System der Community Notes funktioniert, ist umstritten. Eine Analyse, die die Europäische Union in Auftrag gab, kam zum Schluss, dass X jene Plattform sei, auf der sich Desinformation am stärksten verbreitet. Weiter fand eine Studie von Forschenden aus Deutschland, Luxemburg und Australien, die Community Notes seien zu langsam. Manche Tweets würden tausendfach angezeigt, bevor sie mit einer Community Note versehen werden könnten. Dies deutet darauf hin, dass das System noch verbessert werden könnte.

Positiv bewerten die Studienautoren, dass mit der Einführung von Community Notes auf X mehr Tweets überprüft und mit Warnhinweisen versehen wurden als davor. Dies bietet Chancen – auch für Meta.

Unter anderem auch deshalb begrüsst Marc Bovermann, Doktorand am Max-Plank-Institut, der für seine Forschung das System der Community Notes analysiert hat, die Änderung, die Facebook und Instagram nun bevorsteht. «Im Kampf gegen Desinformation funktionieren die Community Notes im Grossen und Ganzen gut», sagt er. Ihm gefalle insbesondere der Aspekt, dass Instagram und Facebook damit wieder vermehrt zu einem Marktplatz der Ideen würden. Meinungen würden damit wieder in einem System ausgehandelt, das sich selbst reguliere.

Bovermann verspricht sich von der Änderung, dass mehr irreführende Posts kontrolliert werden. «Bisher hatten auch die umtriebigsten Faktenprüfer auf Facebook und Instagram mit ihren beschränkten Ressourcen zu kämpfen. Die Community Notes könnten also dazu führen, dass mehr Aussagen auf den Plattformen überprüft werden», sagt Bovermann.

Dennoch findet der Forscher: «Der Königsweg wäre es wohl, die Community Notes zwar einzuführen, aber die externen Faktenchecker beizubehalten, insbesondere in Ländern, die sich gerade im Wahlkampf befinden.» Darauf deutet auch eine Studie hin, die zeigen konnte, dass sich Faktenchecker und Community Notes ergänzen: Faktenchecker sind schneller als Community Notes und bestätigen auch Informationen, die sich zwar unglaublich anhören mögen, aber dennoch richtig sind. Community Notes sind derweil wertvoll, weil sie insbesondere Aussagen jener Nutzer widerlegen, die eine grosse Anhängerschaft haben.

Interessanterweise könnte es gerade in Europa zu eben diesem Szenario kommen. Schliesslich hat Mark Zuckerberg vorerst nur das Ende der Zusammenarbeit mit externen Faktenprüfern in den USA angekündigt. Sieht er von diesem Schritt in Europa ab, führt gleichzeitig aber auch das System der Community Notes in Europa ein, hätten wir das Beste aus zwei Welten.

Exit mobile version