D’anciens modérateurs de TikTok poursuivent le bilan émotionnel de vidéos “extrêmement dérangeantes”: NPR

Deux femmes qui ont examiné des centaines de vidéos TikTok chaque semaine pour un contenu violent et graphique disent que l’entreprise a ignoré le traumatisme psychologique qu’elles ont subi au travail et les a poussées à respecter les quotas.

Kiichiro Sato / AP


masquer la légende

basculer la légende

Kiichiro Sato / AP


Deux femmes qui ont examiné des centaines de vidéos TikTok chaque semaine pour un contenu violent et graphique disent que l’entreprise a ignoré le traumatisme psychologique qu’elles ont subi au travail et les a poussées à respecter les quotas.

Kiichiro Sato / AP

Quand Ashley Velez a accepté un travail l’année dernière en examinant des vidéos pour TikTok, “on nous a dit que nous serions la première ligne de défense pour protéger les enfants contre la violence”, a-t-elle déclaré.

Mais la mère de Las Vegas de deux garçons, âgés de 8 et 17 ans, a déclaré qu’elle avait été stupéfaite lorsqu’elle a découvert ce que le poste impliquait.

“Nous verrions la mort et la pornographie graphique, graphique. Je verrais des enfants mineurs nus tous les jours”, a déclaré Velez dans une interview. “Je voyais des gens se faire tirer une balle dans la tête, et une autre vidéo d’un enfant battu m’a fait pleurer pendant deux heures d’affilée.”

Velez a travaillé pour TikTok de mai à novembre 2021, l’un des quelque 10 000 modérateurs de contenu dans le monde qui surveillent les vidéos sur la plate-forme, s’assurant qu’elle reste un flux sans fin de contenu léger, plutôt qu’un cloaque de vidéos violentes et dérangeantes.

Maintenant, Velez et un autre ancien modérateur de TikTok, Reece Young, ont déposé une plainte fédérale demandant le statut de recours collectif contre l’application de partage de vidéos et sa société mère, ByteDance.

L’application chinoise fait l’envie des géants des médias sociaux de la Silicon Valley et compte plus d’un milliard d’utilisateurs actifs par mois. Son succès dépend en grande partie du travail de modérateurs comme Velez qui travaillent dans les coulisses pour nettoyer TikTok de contenu pénible avant que les masses ne le voient.

Alors que le sort des modérateurs est souvent absent des combats sur le contenu autorisé et interdit par les plateformes de médias sociaux, il existe un mouvement croissant pour tenir les géants de la technologie responsables du bien-être de ces travailleurs en première ligne de ce débat. Jeudi, Velez et Young ont cherché à faire exactement cela.

“Vous voyez les défis de TikTok et des choses qui semblent amusantes et légères, mais la plupart ne connaissent pas cet autre côté sombre de TikTok que ces gens aident le reste d’entre nous à ne jamais voir”, a déclaré l’avocat Steve Williams du cabinet d’avocats Joseph Saveri. , qui a déposé le dossier.

Velez : “Quelqu’un doit souffrir et voir ce genre de choses”

Leur procès accuse TikTok de négligence et dit qu’il a enfreint les lois du travail californiennes en ne protégeant prétendument pas Velez et Young du traumatisme émotionnel causé par l’examen de centaines de vidéos “hautement toxiques et extrêmement dérangeantes” chaque semaine, y compris des vidéos de cruauté envers les animaux, de torture et même le exécution d’enfants.

“Les enfants nus mineurs étaient la pléthore de ce que j’ai vu”, a déclaré Velez, qui travaille maintenant comme entrepreneur indépendant pour le site de location de maisons de vacances Boutiq. “Les gens comme nous doivent filtrer le contenu peu recommandable. Quelqu’un doit souffrir et voir ce genre de choses pour que personne d’autre n’ait à le faire.”

Selon la poursuite, Young et Velez ont été exposés à un environnement de travail dangereux parce que TikTok n’a pas fourni de traitement de santé mentale adéquat pour aider à faire face à l’anxiété, à la dépression et au stress post-traumatique associés à l’examen de vidéos graphiques.

Young et Velez étaient tous deux des sous-traitants, pas des employés de TikTok. Young a travaillé pour la société new-yorkaise Atrium ; Velez a été embauché par Telus International, une entreprise technologique canadienne cotée en bourse. La poursuite indique que TikTok et ByteDance contrôlaient le travail quotidien de Young et Velez en liant directement leur salaire à la façon dont ils ont modéré le contenu dans le système de TikTok et en les poussant à atteindre des objectifs de quota agressifs. Avant de pouvoir commencer à travailler, les modérateurs ont dû signer des accords de non-divulgation, selon la poursuite, les empêchant de discuter de ce qu’ils ont vu même avec leurs familles.

Des modérateurs comme Young et Velez devraient examiner les vidéos “pas plus de 25 secondes” et décider avec une précision de plus de 80% si le contenu enfreint l’une des règles de TikTok, selon le cas. Pour respecter les quotas, selon la poursuite, les modérateurs regardent souvent plusieurs vidéos à la fois.

Young et Velez ont eu droit à deux pauses de 15 minutes et à une heure de déjeuner au cours d’une journée de travail de 12 heures. S’ils prenaient d’autres pauses, ils risquaient de perdre leur salaire, indique le procès.

Cela revient à punir les modérateurs de contenu en “les rendant extrêmement mal équipés pour gérer les images mentalement dévastatrices que leur travail leur a demandé de voir sans aucun conseil significatif ni pause significative pendant leur travail”, ont écrit l’avocat Joseph Saveri et d’autres avocats des plaignants dans le costume.

Une porte-parole de TikTok a refusé de commenter le procès, mais a déclaré que l’entreprise “s’efforce de promouvoir un environnement de travail bienveillant pour nos employés et sous-traitants”.

Les modérateurs de TikTok, selon la société, se voient proposer “une gamme de services de bien-être afin que les modérateurs se sentent soutenus mentalement et émotionnellement”.

La porte-parole de Telus International, Jennifer Bach, a déclaré dans un communiqué qu’elle “a mis en place un solide programme de résilience et de santé mentale pour soutenir tous les membres de notre équipe, ainsi qu’un programme complet d’avantages sociaux pour l’accès aux services de santé et de bien-être personnels”.

Velez a déclaré qu’elle avait organisé une réunion avec un conseiller de Telus, qui lui a parlé pendant 30 minutes. “Ils ont vu tellement de gens qu’ils n’avaient pas l’air d’avoir le temps de vous aider avec ce dont vous souffriez”, a-t-elle déclaré. “Cela aurait été bien s’ils reconnaissaient même que les vidéos causaient un problème en premier lieu.”

La poursuite de TikTok intervient après un règlement de 52 millions de dollars sur Facebook

Les sociétés de médias sociaux, y compris TikTok, utilisent l’intelligence artificielle pour filtrer des millions de vidéos pour un contenu dérangeant, mais la technologie ne peut pas tout capter, de sorte que les modérateurs humains restent essentiels pour assurer la sécurité des plateformes.

“Il y a un espoir que l’intelligence artificielle puisse faire tout ce travail, mais cet espoir n’est pas encore réalisé, alors maintenant, les humains font principalement ce travail”, a déclaré Williams.

Pourtant, les gens ne peuvent agir qu’aussi rapidement. Alors que les modérateurs sont poussés à agir rapidement, ils sont également chargés d’analyser plusieurs aspects de chaque vidéo, indique la poursuite. Il y a maintenant 100 “balises” – contre 20 balises – que les modérateurs peuvent utiliser lorsqu’ils indiquent qu’une vidéo enfreint une règle, comme une balise qui signale une vidéo comme montrant le torse d’un mineur, et les modérateurs doivent également analyser ce qui se passe dans le arrière-plan de chaque vidéo.

On ne sait pas exactement quand les nouvelles normes de modération sont entrées en vigueur. Depuis que la Russie a envahi l’Ukraine, TikTok subit de nouvelles pressions alors qu’il tente de garder une longueur d’avance sur un flot de vidéos trompeuses sur la guerre.

Dans le procès, les avocats de Young et Velez soutiennent que le traumatisme psychologique de leurs clients découle non seulement de vidéos violentes, mais aussi de celles qui propagent des théories du complot, y compris des enregistrements suggérant que la pandémie de COVID-19 est une fraude ou niant l’Holocauste. .. s’est passé.

Le National Center for Missing & Exploited Children a développé des bonnes pratiques pour les modérateurs de contenu qui sont exposés à des images et des vidéos de mineurs exploités. Ces mesures incluent le floutage de parties d’une image ou la superposition d’une grille sur l’image pour atténuer son impact émotionnel potentiel sur les personnes qui l’examinent.

La poursuite indique que bien que TikTok soit l’un des partenaires commerciaux du centre, avec Google et Facebook, il n’a pas adopté les recommandations du groupe, se concentrant plutôt sur l’atteinte des quotas de révision vidéo avant tout. Une porte-parole de TikTok n’a pas renvoyé de demande de commentaire sur l’allégation.

Les avocats représentant Velez et Young ont poursuivi Facebook il y a plusieurs années au nom de milliers de modérateurs qui ont déclaré avoir éprouvé une détresse émotionnelle au travail. En mai 2020, Facebook a accepté de régler le procès pour 52 millions de dollars. Les modérateurs individuels qui faisaient partie du groupe d’action étaient éligibles à au moins 1 000 $, selon la gravité de leurs troubles émotionnels liés à leur travail de modération sur Facebook.

Les mêmes avocats ont déposé une plainte similaire contre TikTok en décembre au nom de la modératrice Candie Frazier. Il a été abandonné le mois dernier, avant qu’un accord ne puisse être trouvé, après que ses avocats aient annoncé qu’elle avait été licenciée.

Leave a Comment