• TikTok recurre a empresas externas para ayudar a la moderación de sus contenidos, una parte vital de su modelo de negocio.
  • Seis moderadores afirman que tuvieron que ver de forma constante videos gráficos de abusos a menores, suicidios y asesinatos.
  • Derivado de su trabajo dicen que sufrieron daños psicológicos y que a pesar de ello las condiciones laborales eran precarias.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Candie Frazier pensó que trabajar para TikTok sería exactamente lo que necesitaba. Perdió su trabajo en un casino de Las Vegas por la pandemia en 2020 y siempre había querido trabajar en el sector tecnológico.

El trabajo le proporcionaba una computadora, un monitor y una tablet, a la vez que le permitía trabajar de forma remota; lo que para ella era una ventaja necesaria pues cuida a su hijo con discapacidad.

Consiguió un trabajo como moderadora de contenidos de TikTok, sin saber demasiado sobre lo que supondría ese trabajo. Acabaría revisando desde videos de abusos a menores hasta suicidios, accidentes y decapitaciones; todo para asegurarse de que estos nunca llegara al «para ti» de los usuarios.

En diciembre, poco más de un año después de su incorporación, Frazier presentó una demanda contra la empresa matriz de TikTok, ByteDance. Alegaba que su trabajo le provocó un trastorno de estrés postraumático y síntomas graves malestar psicológico.

«Ser moderadora de TikTok me hizo daño», explica Frazier a Business Insider. «Me ha hecho perder la confianza en la gente», añade.

Varios de los compañeros de Frazier cuentan a Business Insider que quedaron igualmente traumatizados. Esto debido a su trabajo como moderadores de Telus International —una de las principales empresas de subcontratación que TikTok utiliza para combatir videos gráficos.

Seis exmoderadores relatan a Business Insider una cultura de exceso de trabajo y vigilancia casi constante. Algunos dicen que dejaron el trabajo sintiéndose insensibles a la violencia. Dos moderadores afirman que les diagnosticaron un trastorno de estrés postraumático; otros describen haber trabajado en condiciones de grave estrés psicológico que, en su opinión, la empresa no supo gestionar.

Todos ellos firmaron en su día acuerdos de confidencialidad y pidieron utilizar seudónimos o hablar bajo condición de anonimato. De esa manera podrían ser sinceros sobre sus experiencias. Sus identidades son conocidas por Business Insider.

Desde que Frazier presentó su demanda, otros dos moderadores —uno de Telus International y otro de Atrium— interpusieron una contra ByteDance con acusaciones similares.

«Mi salud mental estaba por los suelos», confiesa uno de los moderadores sobre su época de trabajo en TikTok. 

ByteDance no respondió a las preguntas enviadas por Business Insider.

El departamento de pesadillas

En 2021, Facebook y TikTok generaron más de 50,000 millones de dólares en ingresos por publicidad. Pero ese negocio se desmoronaría sin la moderación de contenidos.

«La alternativa consistiría en un feed de noticias dominado por la pornografía, el spam e incitación al odio», explica Paul Barrett, subdirector del Centro de Empresas y Derechos Humanos de la Universidad de Nueva York. «Ese tipo de cosas distanciaría a una gran mayoría de usuarios y, lo que es más importante, alejaría a los anunciantes».

ByteDance se basa en una combinación de inteligencia artificial (IA) y moderadores humanos para eliminar este tipo de contenidos. La IA ayuda a separar los videos en grupos. Van desde los videos de baja prioridad y los duetos de TikTok hasta el contenido gráfico, como abusos a menores y suicidios. 

En los días de mayor actividad, los moderadores trabajan con más de 1,200 videos cortos en un mismo turno. Las jornadas de trabajo eran de entre 8 y 10 horas; varios moderadores afirman que eran incapaces de negarse a hacer turnos consecutivos, a veces durante meses.

«A mi departamento le llamaban el departamento de las pesadillas», dice Sasha, exencargada de Telus International; dejó su trabajo el año pasado. Al igual que otros moderadores, Sasha pidió utilizar un seudónimo para hablar con franqueza de su experiencia.

«Estaba lleno de lo peor de lo peor», asegura. Con ello habla de videos de abusos a menores, autolesiones, accidentes graves y tiroteos masivos que los usuarios publican a diario.

Al principio de cada turno, Sasha cuenta que recibían un listado de denuncias destinadas a las grupos de videos gráficos de alta prioridad. En ellos podían permanecer durante semanas hasta que sus jefes decidían lo contrario.

«Eran horribles, pero no podía sacarlos de ahí», explica Sasha.

Ashley, exmoderadora con antecedentes de autolesiones, afirma que los videos sobre suicidio fueron los más perturbadores para ella. Cuando entró a Telus, relata que vio cómo un hombre se suicidaba con una escopeta.

«Podías ver cómo salía volando todo, y cómo se le caían los sesos», dice. «Pensaba en eso durante todo el día o lo recordaba sin querer».

Fue el primero de muchos videos de este tipo que Ashley encontraría en la plataforma.

La siguiente vez que vio contenido de autolesiones, se lo saltó para preservar su salud mental. Pero esto afectó a la eficacia de su trabajo, y sus jefes se dieron cuenta. Después de eso Telus International empezó a controlar que los moderadores reprodujeran los videos completos.

«Si descubren que no reprodujiste los videos completos, te metes en un lío», explica Roberta. «Te dan una ‘pista’, que es un strike en tu contra».

Sasha asegura que tras cinco de estas citaciones disciplinarias los despiden.

Un portavoz de Telus International dijo a Business Insider que los moderadores pueden omitir los contenidos difíciles a su criterio. Que incluso pueden remitirlos a su equipo de respuesta de emergencia; este existe desde el inicio de la colaboración de la empresa con TikTok, para que los eliminen de la plataforma. Esto también activa a su equipo de bienestar para apoyar a los moderadores. 

En el poco más de un año que Sasha trabajó en Telus International afirma que nunca oyó hablar de un equipo de respuesta a emergencias. Sin embargo, ByteDance sí tiene un equipo así que se encarga de los videos que la empresa está obligada a denunciar a la policía. Añade que aunque su equipo mandaba el material al departamento, nadie de Telus International ni del equipo de bienestar de TikTok se puso nunca en contacto con los moderadores afectados.

Para Roberta, otra exmoderadora que trabajó en Telus International por más de un año, ver videos de asesinatos y de personas maltratando animales le provocó una grave ansiedad social. Un video donde dos hombres apuñalan a una mujer con un cuchillo de caza en el bosque la traumatizó.

«Antes me sentía totalmente cómoda con los demás», relata Roberta. «Ahora, simplemente me cuestiono todo».

A los moderadores no se les informó adecuadamente sobre el material que revisarían

Seis de los moderadores con los que habló Business Insider dicen que Telus International no les informó adecuadamente del contenido gráfico que revisarían. 

«Hicieron creer que la mayoría de los videos iban a ser de gente divirtiéndose y después de crimen organizado o desnudos», explica Roberta.

«Nunca decían exactamente lo que ibas a ver. Si lo hacían, asustarían a la gente», comenta otro moderador.

El Centro Nacional para Niños Desaparecidos y Explotados, organización sin fines de lucro estadounidense que rastrea el tráfico de niños, realiza un trabajo similar al de los moderadores. Afirma que la «explotación sexual infantil online» se menciona explícitamente durante su proceso de entrevistas. De hecho, animan a los posibles empleados a utilizar su sitio web para informarse sobre el problema.

Las prácticas de la organización se convirtieron en un modelo para la industria tecnológica. De hecho, apoyan demandas colectivas en nombre de los moderadores de contenidos gráficos en redes sociales.

Sasha, encargada de Telus International, afirma que la empresa preguntó a los candidatos si eran psicológicamente capaces de enfrentar contenidos gráficos. No obstante, los entrevistadores rara vez describían con detalle el tipo de material que los candidatos iban a revisar.

Un portavoz de Telus International niega que se informase inadecuadamente a los candidatos. También facilitó un documento que los moderadores firmaban. Al hacerlo aceptaban que verificarían «contenido gráfico, violento, sexual, explícito, político, profano y altamente perturbador». Pero los empleados aseguraron a Business Insider que el formulario es uno de los muchos papeles que firmaron y que no le prestan especial atención.

Telus International también aseguró que intentó cambiar a los empleados que no querían trabajar en la moderación de contenidos a otros puestos. Pero los moderadores dicen que esto raramente ocurría, si es que realmente sucedió alguna vez. Roberta sostiene que suplicó a sus jefes que la cambiaran a atención al cliente, pero se lo negaron. 

«Solo oí que no era realmente una opción», explica Sasha. 

«Empezar a tomar las medicinas»

Para ayudarles a superar el trauma psicológico de la moderación de contenidos gráficos, Telus International ofreció a sus moderadores orientadores de guardia y descansos para su bienestar. Pero los moderadores dicen que esos recursos no siempre les resultaron útiles. 

«Asistí a una sesión de grupo y me horrorizó lo que escuché», afirma Ashley. «Algunas personas estaban compartiendo información profundamente personal. Y uno de los orientadores dijo algo así como: ‘No soy médico ni nada parecido… Pero deberías empezar a tomar algún tipo de medicina'». 

Ashley dice que no volvió a asistir a ninguna otra sesión.

«Nos decían que lo olvidáramos o que diéramos un paseo», cuenta Roberta sobre la asesoría que recibió. La ineficacia de las sesiones la hizo buscar un terapeuta externo que le diagnosticó trastorno de estrés postraumático. Pero los 15 dólares por hora que le pagaba Telus International apenas cubrían el costo de la terapia y sus gastos diarios.

«En definitiva, no te pagan lo suficiente para pagar el alquiler, servicios y la terapia», dice. «Busqué otro trabajo solo para poder ir a terapia».

En respuesta a las preguntas sobre el equipo de bienestar, Telus International dijo que emplea a psicólogos clínicos e investigadores con experiencia en la gestión del estrés psicosocial, la salud y la seguridad.

«Nuestro equipo de bienestar es muy consciente de las necesidades de salud y bienestar de nuestros moderadores. Por ello, se esfuerza por prevenir y mantener la buena salud mental de los miembros de nuestro equipo», señala el portavoz.

Añadió que los moderadores pueden tomarse dos horas semanales para participar en sus programas de bienestar pagados por la empresa. De los cuatro trabajadores a los que se preguntó sobre esta prestación, todos dicen que nunca les informaron que existiera.

Telus International también reconoció en su presentación anual ante la Comisión de Bolsa y Valores de Estados Unidos que, aunque la empresa ofrecía sesiones de asesoramiento, terapeutas y descansos para la salud mental, «puede haber ocasiones en las que nuestros programas de bienestar y resiliencia no mitiguen suficientemente esos efectos». 

«No esperaba encontrarme con pornografía infantil»

Aparte del estrés psicológico que supone el trabajo, los moderadores de Telus International dicen que sus objetivos de rendimiento eran en gran medida insostenibles. Sentían que siempre corrían el riesgo de ser despedidos. Contaron que se les evalúa en función de tres parámetros: la velocidad con que moderan videos, la precisión de las etiquetas y el número de videos que ven.

Además afirman que tienen 20 segundos para etiquetar los videos, que inicialmente no era problema. Pero a medida que la plataforma crecía, se les pedía que etiquetaran el contenido con más detalle. Tenían que etiquetar cada torso o muslo expuesto.

Pero estos cortos tiempos de gestión y el creciente número de etiquetas significaban que los moderadores rara vez alcanzaban una precisión de 90%, explicaron a Business Insider.

En 2021, el centro de Nevada de Telus international empezó a recibir más grupos y contenidos de TikTok. Esto supuso una presión aún mayor sobre los empleados, según Sasha.

«Tuvimos que poner ‘toda la carne en el asador'», asegura.

Inicialmente, los moderadores contaban con cuatro descansos de 15 minutos: dos por motivos de bienestar y dos programados; también tenían una hora para comer. Tres moderadores y la exencargada cuentan que la empresa empezó a negarles dos de sus descansos conforme había más contenido. También tenían que pedir la aprobación de sus jefes antes de visitar a uno de los orientadores de guardia de Telus International.

«Si no estaba previsto en su horario, se les denegaba si intentaban hacer una pausa de bienestar», explica Sasha. Ella reconoce que esto desvirtuaba el propósito original de dar a los moderadores la oportunidad de alejarse de la pantalla tras ver algo muy traumático.

Telus International niega que se hayan quitado estos descansos. «Los descansos no se cancelan», afirma su portavoz.

Con el tiempo la empresa añadió una pausa de bienestar adicional programada. Pero algunos moderadores sienten que habrá represalias si las utilizan.

Después de ver un video sobre abusos sexuales a menores, una moderadora se alejó de la computadora durante unos 15 minutos tras informar a su jefe. Cuando regresó, la encargada la amonestó por tomarse un descanso que no estaba programado.

«Le dije que no esperaba encontrarme ese día con pornografía infantil», explica la moderadora. «Sé que no estaba programada, pero lo tenía que hacer».

Sasha confirma que a veces se amonesta a los moderadores por hacer pausas de bienestar.

Otros moderadores dicen que Telus International vigilaba los tiempos de inactividad de los empleados. El programa de la empresa controlaba la frecuencia con la que un empleado movía el cursor.

«Se estaban volviendo mucho más estrictos y hacían la vida más estresante», afirma Ashley. «Empezaron a controlar literalmente todo».

Si el sistema determinaba que un moderador pasaba más de 10% de su jornada sin hacer nada, los directivos amenazaban con sanciones. Estas generalmente acababan en despidos, cuenta un moderador.

Telus International no respondió a las preguntas de Business Insider sobre la vigilancia laboral.

Tiktok iba a ser diferente 

Los moderadores de Facebook y YouTube —que trabajan a través de empresas subcontratadas— se quejaron durante años de su trato; en los últimos años, se presentaron demandas contra ambas empresas. Se alegaron traumas mentales y condiciones laborales de explotación. Facebook acordó pagar a sus moderadores 52 millones de dólares en un acuerdo histórico en mayo de 2020.

Pero los moderadores de contenido de TikTok informaron que las condiciones de trabajo para la empresa son mejores. La empresa tiene 10,000 trabajadores a nivel mundial y contrata a moderadores de empresas subcontratadas por Facebook y YouTube. Ofrece salarios más altos, un mejor ambiente laboral y más beneficios, además de un contrato directo a través de ByteDance. 

«Elegí TikTok porque los beneficios son mejores, el ambiente es mejor y la empresa valora a cada miembro», comentó un moderador al Financial Times.

Sin embargo, ahora que es la tercera red social más grande del mundo, depende de empresas externas, como Telus International, para contratar a su personal, lo que trajo los mismos problemas laborales del sector. 

Se calcula que en Telus International de Nevada trabajan más de 500 empleados para TikTok; ni Telus International ni TikTok facilitan públicamente esa información.

ByteDance respondió de manera agresiva a la demanda colectiva

Después de presentar su demanda en diciembre, Frazier dice que sus jefes le aseguraron que podría cambiar de división mientras se investigaban sus acusaciones. Pero el 24 de diciembre recursos humanos le comunicó que estaba de baja administrativa. Al mes siguiente, la despidieron.

Al principio se sorprendió. Otros moderadores que presentaron demandas similares contra Facebook y YouTube permanecieron en la empresa mientras se resolvía su caso. Aunque sabía de los peligros de denunciar, pensó que no habría represalias directas.

«Adoptaron un planteamiento muy agresivo y contradictorio», dice Steve Williams, abogado de Frazier.

«YouTube, por ejemplo, se muestra dispuesto a decir: ‘Sí, vamos a arreglar esto'», dice Williams. Mientras, TikTok «parece pensar: Cállate. No hables de ello. Déjanos en paz», señala.

Desde entonces, Frazier decidió integrarse al grupo en la nueva demanda, que presentó su compañero de Telus International y el moderador de Tennessee.

Sin embargo, ByteDance fue igual de agresiva ante la nueva demanda, afirma Williams. 

En mayo, la empresa presentó una moción para desestimarla porque dijo que los moderadores estaban sujetos a cláusulas de mediación obligatorias con su empleador. Williams dice que no tiene pruebas de que sus clientes firmaran algún documento que contenga dicha cláusula. 

«Ni Facebook ni Youtube intentaron usar ese argumento», subraya Williams. 

En abril, se presentó una demanda de compensación laboral ante la Oficina de Compensación Laboral en nombre del moderador de Tennessee. Williams dice que nadie presentó dicha solicitud y que el demandante nunca entrevistado por la agencia. Cuando Williams trató de retirar la solicitud no autorizada, la oficina la rechazó; esta decisión podría perjudicar la demanda colectiva. 

Incluso si la demanda de TikTok tuviera éxito, no todo el mundo está convencido de que vaya a producir cambios duraderos. «52 millones de dólares es una gota de agua para una empresa como Facebook», explica Cori Crider, abogada de Foxglove Legal.

Según Crider, a TikTok le saldría más barato llegar a un acuerdo que aumentar las medidas de seguridad en todo el mundo. En su opinión, la contratación de todos los moderadores obligaría a ByteDance a responsabilizarse de su bienestar. 

«Tienen que hacer algo al respecto»

Seis meses después de ser despedida, Frazier lucha por encontrar un trabajo a tiempo completo. Está entre los 35,000 habitantes de Nevada que esperan desde marzo a que se procesen sus solicitudes de desempleo.

«Conseguir el dinero para ir en Uber a las entrevistas de trabajo sin las ayudas por desempleo ha sido casi imposible», afirma.

Aunque la familia y los amigos han ayudado con sus gastos y los de su hijo, dice que le preocupa perder su departamento. Y aunque ha podido ver a un terapeuta a través de los servicios de la startup Cerebral, su situación financiera ha hecho que tenga que dejar de asistir a consulta. 

Ante la pregunta de Business Insider de si se arrepiente de haber hablado, responde con un no rotundo.  

«No cambiaría nada. Tienen que hacer algo al respecto», sentencia. 

Para Frazier y otras personas con las que Business Insider platicó de Telus International, moderar el contenido de TikTok pareció en su día una opción segura y estable por la pandemia. Ahora que se esfuerzan por superar los estragos que el trabajo causó en sus vidas, miran el trabajo con desdén.

«Dejaron de preocuparse por la gente y solo se preocuparon por los números», dice Sasha, la encargada. «Prefiero comer cristales que volver a trabajar en la moderación de contenidos».

AHORA LEE: Los vehículos autónomos, no los eléctricos, revolucionarán la industria, según el CEO de Volkswagen

TAMBIÉN LEE: El CEO de Volkswagen apuesta a que superarán a Tesla en ventas de coches eléctricos en 2025

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedInTikTok y YouTube

AHORA VE: