Ex moderadores de TikTok demandan por trauma en el trabajo

Ex moderadores de TikTok demandan por trauma en el trabajo

Imagen del artículo titulado 'Vería que a la gente le disparan en la cara:'  Ex moderadores de TikTok demandan por trauma en el trabajo

Imagen: Oficina Martín (imágenes falsas)

Un pequeño ejército de moderadores de contenido con exceso de trabajo es la última línea de defensa del público contra una avalancha de contenido depravado y horrible subido a las redes sociales. Mientras que los moderadores nos ayudan a los usuarios normales a evitar lo peor de lo peor, la exposición constante a los impulsos más oscuros de la humanidad puede causar estragos en sus salud mental. Ahora, dos ex moderadores de TikTok alegan que el gigante de las redes sociales de rápido crecimiento escatimó en el tratamiento de salud mental para los moderadores que luchan por lidiar con una avalancha de pesadillas digitales.

“Yo vería a la gente recibir un tiro en la cara”, dijo uno en un entrevista con NPR. “Y otro video de un niño siendo golpeado me hizo llorar durante dos horas seguidas”.

los demanda judicial, presentado el jueves, afirma que TikTok y su empresa matriz ByteDance violaron las leyes laborales de California al no garantizar que los moderadores estuvieran adecuadamente protegidos del trauma emocional causado por la exposición a las imágenes. Los moderadores, afirma la demanda, actúan como “los guardianes entre el contenido sin filtrar, repugnante y ofensivo subido a la aplicación y los cientos de millones de personas que usan la aplicación todos los días”. La demanda acusa específicamente a TikTok de negligencia, ejercicio negligente del control retenido y violaciones de la ley de competencia desleal de California.

“Demandados [TikTok and ByteDance] somos conscientes de los efectos psicológicos negativos que tiene ver contenido gráfico e inaceptable en los moderadores”, argumenta la demanda. “A pesar de esto, los acusados ​​no implementan estándares reconocidos de atención para proteger a los moderadores de daños”.

A estas alturas, no es ningún secreto que los moderadores de contenido tengan que interactuar con material horrible, pero la demanda afirma que moderar TikTok es en realidad peor que otras plataformas. Mientras que otras empresas implementan algunos esfuerzos de mitigación de daños recomendados por grupos de la industria, como utilizar tecnología de filtrado para distorsionar imágenes o brindar asesoramiento obligatorio a los moderadores, TikTok no lo hace, según la demanda. “Esta exposición absoluta e insensibilidad hacia la implementación de estándares de atención, resultó en Demandantes [the moderators] estar expuesto a miles de videos gráficos e inaceptables, que incluyen violencia gráfica, agresión sexual y pornografía infantil”, alega la demanda.

Los ex moderadores de TikTok, Ashley Velez y Reece Young, afirman que no aliviaron el tratamiento de salud mental adecuado, lo que a su vez condujo a un ambiente de trabajo inseguro. Los dos moderadores afirman que estuvieron expuestos a una larga lista de la mierda más horrible en Internet: videos de pornografía infantil, violaciones, bestialidad, asesinatos, decapitaciones y suicidios cruzaron sus escritorios.

Young informó haber visto a una niña de 13 años ser ejecutada por un miembro del cartel en cámara. Vélez le dijo a NPR que las imágenes y los videos que involucraban a niños menores de edad representaban la gran mayoría del contenido preocupante al que estuvo expuesta. “Alguien tiene que sufrir y ver estas cosas para que nadie más tenga que hacerlo”, dijo Vélez a NPR.

La demanda afirma que exigir cuotas de productividad impuestas a los trabajadores es “irreconciliable con los estándares de atención aplicables”.

Según la demanda, a los moderadores se les dice que revisen los videos durante no más de 25 segundos y emitan juicios con más del 80% de precisión sobre si un video determinado viola o no las reglas de TikTok. Dentro de esos 25 segundos, los moderadores tienen que pensar y considerar 100 etiquetas posibles que podrían aplicarse para etiquetar contenido problemático, dijeron los demandantes. Los moderadores trabajan en turnos de 12 horas con un descanso para almorzar de una hora y dos descansos de quince minutos, según la demanda.

“Al examinar las publicaciones de las redes sociales en busca de contenido objetable, los moderadores de contenido son nuestros soldados de primera línea en una guerra contra la depravación: una guerra en la que todos tenemos interés en ganar”, dijo Steven Williams, uno de los abogados que representan a los moderadores de TikTok en un comunicado. “El trauma psicológico y los trastornos cognitivos y sociales que enfrentan estos trabajadores es grave. Pero están siendo ignorados y los problemas solo empeorarán, para la empresa y para estas personas”.

TikTok no respondió a la solicitud de comentarios de Gizmodo.

AUSTIN, TX - 5 DE MARZO: Los moderadores de contenido trabajan en una oficina de Facebook en Austin, Texas.

AUSTIN, TX – 5 DE MARZO: Los moderadores de contenido trabajan en una oficina de Facebook en Austin, Texas.
Foto: el poste de washington (imágenes falsas)

Además de esa montaña de terror digital, la demanda afirma que los moderadores también están expuestos regularmente a torrentes de teorías de conspiración e información errónea, particularmente sobre el covid-19, que según sus abogados también provoca reacciones traumáticas.

Cabe señalar que Vélez y Young eran contratistas que trabajaban a través de las empresas Telus International y Atrium Staffing Services, respectivamente. Aunque ambos moderadores técnicamente trabajan para compañías separadas, la demanda aún busca responsabilizar a TikTok y ByteDance, argumentando que es el que establece cuotas, monitorea a los trabajadores y está a cargo de las acciones disciplinarias. Aunque un portavoz de Telus International le dijo a NPR que brindan asesoramiento sobre salud mental a los contratistas, Vélez afirma que es muy insuficiente. La moderadora dijo que solo tuvo una reunión de 30 minutos con un consejero que apareció inundado de solicitudes de otros moderadores angustiados.

A través de la demanda, los abogados de los moderadores esperan obtener una compensación financiera para Vélez y Young y presionar a TikTok para que brinde exámenes y tratamientos de salud mental a sus miles de moderadores de contenido actuales y anteriores. Gizmodo se acercó a la empresa para hacer comentarios, pero no ha recibido respuesta.

Los moderadores afirmaron, como es el caso de muchos otros moderadores de empresas tecnológicas rivales, que estaban obligados a firmar acuerdos de no divulgación impidiéndoles discutir las imágenes que vieron. Después de un día de trabajar duro en los rincones más oscuros de la humanidad, los trabajadores tienen que enterrar esas historias, incapaces de hablar de ellas con amigos o incluso familiares.

“Vieron a tanta gente que parecía que no tenían tiempo para ayudarte con lo que estabas sufriendo”, dijo Vélez a NPR.

Si bien TikTok, al igual que otros importantes proveedores de contenido, despliega inteligencia artificial para capturar la mayor parte del contenido problemático, la frenética avalancha de contenido potencialmente dañino que se carga en sus sitios significa que los moderadores humanos siguen siendo indispensables. Estos moderadores, en general, suelen ser contratistas independientes que trabajan por salarios más bajos, con menos seguridad laboral y menos beneficios que los trabajadores empleados en empresas de tecnología.

Investigadores de la Universidad de Texas y la Universidad de St. Mary publicaron un papel El año pasado hizo una crónica de la literatura académica sobre moderadores de contenido y encontró amplia evidencia de exposición repetida a contenido dañino que conduce a TEPT y otros daños psicológicos.

“Si bien se puede esperar que el trabajo de moderación sea desagradable, hoy en día se reconoce que la exposición repetida y prolongada a contenido específico, junto con un apoyo limitado en el lugar de trabajo, puede afectar significativamente el bienestar psicológico de los moderadores humanos”, escriben los investigadores.

En otros casos, los moderadores de Youtube y Facebook tienen según se informa sido hospitalizado por ansiedad aguda y depresión luego de una exposición repetida al contenido. Y desafortunadamente para todos, Internet no se está volviendo menos jodido. Esta misma semana el Centro Nacional de Niños Desaparecidos y Explotados dijo El año pasado se eliminaron de Internet 29,3 millones de elementos de material de abuso sexual infantil. Eso es un récord y un aumento del 35% de la cantidad de material eliminado el año anterior.

Los problemas de salud mental que afectan a los moderadores de contenido en toda la industria tecnológica han ganado la atención del público en los últimos años gracias a una gran cantidad de informes reveladores y otras acciones legales. Numerosos medios de comunicación han documentado los entornos de trabajo a menudo impactantes para los moderadores en Facebook y YouTubeaunque se ha escrito poco comparable sobre los moderadores de TikTok.

Hace dos años Facebook establecido una demanda presentada contra ellos por miles de moderadores por $ 52 millones. El mismo bufete de abogados que representa a Vélez y Young también representó a los moderadores de Facebook. Ese acuerdo se originó originalmente de una demanda de 2018 presentada por la moderadora de Facebok, Selena Scola, quien afirmó que había desarrollado TEPT después de ver casos de violación, suicidio y asesinato durante su trabajo. El acuerdo de $ 52 millones se dispersó entre miles de contratos y cada uno recibió al menos $ 1000 en compensación. Un ex moderador de contenido de Youtube también demandado su empleador en 2020, alegando que desarrolló depresión y síntomas asociados con el trastorno de estrés postraumático después de ver decapitaciones e imágenes de abuso infantil. Es lógico que TikTok, uno de los más rápidos creciente sitios de redes sociales en línea, también se encontraría en el extremo receptor del litigio.

Leave a Reply

Your email address will not be published. Required fields are marked *