Tech News

Technik & Digital

Daten zeigen, dass X deutlich weniger Moderationspersonal hat als andere Plattformen


Hat X jetzt viel weniger Moderatoren als andere Apps, nachdem im Jahr 2022 rund 80 % des gesamten Personals abgezogen wurden?

Obwohl wir keinen vollständigen Einblick in die Personalbesetzung jeder App haben, hat X öffentlich sein Crowdsourcing-Faktenprüfungsprogramm „Community Notes“ als Ergänzung zu seinem reduzierten Moderationspersonal befürwortet, das es in vielen Fällen als bessere Lösung ansieht Wege.

Aber um wie viel hat sich dieser Personalbestand tatsächlich verringert, und wie sieht er im Vergleich zu anderen Apps aus?

Die neuesten EU-Transparenzberichte geben Aufschluss.

Unter dem EU-Gesetz über digitale Dienste (DSA) Alle großen Online-Plattformen sind verpflichtet, regelmäßig die Anzahl ihrer Nutzer und Moderatoren in der EU zu melden, um mehr Transparenz über ihre Abläufe zu gewährleisten.

In der letzten Woche haben alle großen sozialen Apps ihre neuesten Berichte veröffentlicht, die einen Vergleich zwischen der Gesamtzahl der Benutzer und dem Moderationspersonal der einzelnen Apps ermöglichen.

Was wie folgt lautet:

Daten zeigen, dass X deutlich weniger Moderationspersonal hat als andere Plattformen

Auf dieser Grundlage weist X mit 1/60.249 das schlechteste Verhältnis von Moderationspersonal zu Benutzern auf, gefolgt von LinkedIn (1/41.652), gefolgt von TikTok (1/22.586) und Meta (1/17.600).

Allerdings gibt es hier einige Vorbehalte.

Meta beispielsweise berichtet, dass dies der Fall sei 15.000 Inhaltsprüfer arbeiten sowohl bei IG als auch bei Facebook, die beide jeweils 260 Millionen Nutzer in der EU haben. In diesem Sinne könnte das Verhältnis von Mitarbeitern zu Nutzern bei Meta wohl verdoppelt werden, obwohl es selbst dann immer noch besser wäre als bei X und LinkedIn.

Die Gesamtbenutzerzahl von X umfasst auch abgemeldete Gäste, was bei den anderen scheinbar nicht der Fall ist. Obwohl Gäste auf Facebook, LinkedIn und IG nicht so viele Inhalte sehen können, ist das in diesem Zusammenhang wahrscheinlich kein wirklich wichtiger Faktor.

Es ist auch nicht ganz klar, wie viele Moderatoren die einzelnen Plattformen konkret der EU zuordnen.

Im Bericht von TikTok heißt es beispielsweise:

Bei TikTok sind 6.287 Menschen für die Moderation von Inhalten in der Europäischen Union zuständig.“

Dies macht deutlich, dass TikTok über so viele Mitarbeiter verfügt, die seine EU-Nutzerbasis betreuen. Die Beschreibungen von Meta und X sind jedoch weniger klar.

Meta sagt das:

„Das Team, das sich mit Sicherheit und Schutz beschäftigt, besteht aus rund 40.000 Menschen. Etwa 15.000 davon sind Inhaltsprüfer; Sie umfassen eine Mischung aus Vollzeitmitarbeitern, Auftragnehmern und ausgelagerter Unterstützung. Wir arbeiten mit Unternehmen zusammen, um bei der Überprüfung von Inhalten zu helfen. Dies ermöglicht uns eine globale Skalierung mit Abdeckung über Zeitzonen, Sprachen und Märkte hinweg. Für Inhalte, die in der EU eine Prüfung in einer bestimmten Sprache erfordern, gibt es spezielle Prüferteams, die Inhaltsmoderationsaktivitäten speziell für diese Inhalte durchführen.“

Das stimmt mit dem überein, was Meta an anderer Stelle als sein globales Moderationsteam berichtet hat, das sowohl IG als auch Facebook (und heutzutage vermutlich auch Threads) betreut. Was die Berechnung erheblich verändert, während X bemerkt auch dass die 1.849 dort aufgeführten Moderatoren „nicht speziell dazu bestimmt sind, nur an EU-Angelegenheiten zu arbeiten“.

Doch selbst wenn man dies berücksichtigt, bleibt X immer noch hinter den anderen zurück.

X hat monatlich insgesamt 550 Millionen aktive Benutzer, und wenn die gesamte Moderationsmannschaft nur aus 1.849 Personen besteht, entspricht das einem Verhältnis von 1 menschlichen Moderator pro 297.458 Benutzern. Selbst wenn man alle 3 Milliarden Benutzer von Meta mitzählt, beträgt das Verhältnis zwischen menschlichen Moderatoren und Benutzern immer noch 1/200.000, und dabei sind die anderen 25.000 Personen, die für Sicherheit und Schutz zuständig sind, noch nicht berücksichtigt.

Alles in allem hat X also viel weniger manuelles Personal, das Inhalte moderiert. Woraus X eigentlich kein Geheimnis gemacht hat, aber das hätte vermutlich auch Auswirkungen auf seine Fähigkeit, rechtsverletzende Inhalte zu erkennen und dagegen vorzugehen.

Dies deckt sich mit Berichten Dritter, dass jetzt mehr Inhalte, die gegen Regeln verstoßen, auf Verschiedene Online-Sicherheitsexperten haben erklärt, dass Community Notes aufgrund von Mängeln im Prozess keine angemessene Sicherheitslösung darstellt und dass X es zwar gerne als einen besseren Prozess für Moderationsanrufe sehen würde, unter bestimmten Umständen jedoch möglicherweise nicht ausreicht.

Sogar X hat dies in gewissem Maße anerkannt, indem er versprach, ein neues Moderationszentrum in Texas zu bauen. Allerdings sind seit dieser Ankündigung (im Januar) keine weiteren Neuigkeiten zu dem Projekt aus dem X-Hauptquartier gekommen.

Wenn Sie grundsätzlich befürchten, dass über.

Basierend auf den Beschreibungen scheint es jedoch, dass X hinter den anderen zurückbleibt, was diese Bedenken verstärken könnte.

Sie können den neuesten EU-Bericht von X lesen Hier, Metas sind hier (Facebook und IG), LinkedIns sind hier und TikToks sind hier. Vielen Dank an Xavier Degraux für die Hinweise zu den neuesten Berichten.





Source link