• Los moderadores de contenido contratados para revisar videos de TikTok dijeron a Forbes que se les mostró material sexualmente explícito de niños.
  • El informe citó moderadores que trabajaron para Teleperformance, una empresa de terceros.
  • Los materiales de capacitación de TikTok tienen controles de acceso estrictos y no incluyen ejemplos visuales de MASI, dijo un portavoz a Insider.
  • ¿Ya conoces nuestra cuenta en Instagram? Síguenos.

Los moderadores de contenido contratados para revisar videos de TikTok dijeron que se les mostró material sexualmente explícito de niños como parte de sus materiales de capacitación, según un informe publicado el jueves por Forbes.

El informe citó a moderadores que trabajaron para Teleperformance, una empresa de terceros que TikTok contrata para moderar contenido en su plataforma, según el informe.

Un exempleado, identificado en el informe como Nasser, le dijo a Forbes que trabajaba en un equipo que ayudó a la inteligencia artificial de TikTok a identificar contenido que no estaba permitido en la plataforma. Nasser alegó que a él y a sus colegas se les mostraron imágenes y videos sexualmente explícitos de niños como parte de su capacitación en la empresa.

Debido a su rápido crecimiento, TikTok ha subcontratado a gran parte de sus moderadores de contenido

A medida que TikTok ha ganado popularidad en los últimos años, ha subcontratado gran parte de su moderación de contenido a empresas externas que contratan personal para revisar manualmente los videos que pueden violar las políticas de las plataformas sobre contenido gráfico.

Al igual que Facebook antes, muchos de estos moderadores de contenido informaron haber experimentado un trauma mental significativo y alegaron que TikTok no los equipó adecuadamente para el trabajo.

Otra exempleada de Teleperformance, Whitney Turner, le dijo a Forbes que trabajó en la empresa durante más de un año y se fue en 2021. Turner dijo que tenía acceso a una hoja de cálculo llamada «Lectura diaria requerida» o «DRR», a la que podían acceder cientos de empleados de Teleperformance y TikTok, según el informe. Esta hoja de cálculo tenía ejemplos de contenido prohibido por TikTok e incluía imágenes de niños desnudos y abusados, le dijo al medio.

“Estaba moderando y pensando: este es el hijo de alguien. Esta es la hija de alguien. Y estos padres no saben que tenemos esta foto, este video, este trauma, este crimen salvado”, dijo Turner a Forbes. «Si los padres supieran eso, estoy bastante segura de que quemarían TikTok».

Turner dijo que entregó el documento al FBI y se reunió con un agente en junio, según el informe.

TikTok alega que sus materiales de capacitación no constan de ejemplos visuales de abuso sexual infantil

Un portavoz de TikTok le dijo a Insider el jueves que sus materiales de capacitación brindan descripciones textuales, pero no ejemplos visuales de material de abuso sexual infantil (MASI); sin embargo, agregó que trabajó con compañías externas que podrían tener prácticas únicas.

«El contenido de esta naturaleza es abominable y no tiene cabida dentro o fuera de nuestra plataforma. ​Nuestro objetivo es minimizar la exposición de los moderadores de acuerdo con las mejores prácticas de la industria», dijo el portavoz. «Los materiales de capacitación de TikTok tienen controles de acceso estrictos y no incluyen ejemplos visuales de MASI, y nuestro equipo especializado en seguridad infantil investiga y presenta informes al NCMEC».

El NCMEC es el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro fundada en la década de 1980 que sirve como «centro nacional de intercambio de información y recursos para información sobre niños desaparecidos y explotados», según la organización. Las empresas como TikTok están legalmente obligadas a informar al NCMEC sobre el abuso sexual infantil que se encuentra en sus plataformas.

Los representantes de Teleperformance no respondieron la solicitud de comentarios de Insider enviada el jueves. Akash Pugalia, presidente global de confianza y seguridad de Teleperformance, le dijo a Forbes que no usó videos explícitos de abuso infantil en su capacitación y que no tenía esos materiales en sus «herramientas de calibración».

Los moderadores de TikTok alegan trastorno de estrés postraumático y emprenden acciones legales

Los empleados de otros contratistas que TikTok usa para moderar su contenido también han hecho sonar la alarma sobre el contenido perturbador que se vieron obligados a ver para trabajar.

Varios moderadores actuales o anteriores de TikTok, que hablaron con Insider en un artículo publicado en junio, detallaron una cultura de exceso de trabajo y vigilancia mientras eran empleados de la oficina de Telus International en Nevada.

Dos personas que hablaron con Insider dijeron que les habían diagnosticado trastorno de estrés postraumático (TEPT) desde que trabajaban como moderadores de TikTok. Candie Frazier, una moderadora que habló con Insider, demandó a la compañía y dijo que se vio obligada a ver decapitaciones, accidentes, suicidios y material de abuso infantil, informó Insider anteriormente.

«Moderar para TikTok duele», dijo Frazier, que trabajó para la empresa de terceros Telus International, a Insider a principios de este año. «Me hizo perder la confianza en la gente», agregó.

Empresas de redes sociales como Meta también sufren críticas por sus prácticas de moderación de contenido

TikTok no es el único gigante de las redes sociales que es cuestionado sobre sus prácticas de moderación de CSAM.

A principios de este año, Meta fue criticada después de que un informe de The New York Times dijera que a los moderadores que trabajaban en nombre de la compañía se les dijo que «erren del lado de un adulto» cuando no pueden decir la edad de alguien en una foto o video. Un portavoz de la compañía confirmó la política al Times.

Los moderadores de los gigantes de las redes sociales han hecho sonar la alarma durante mucho tiempo sobre los peligros de moderar contenido perturbador para las plataformas.

The Verge informó en 2019 que algunos moderadores que trabajaban para moderar el contenido de Facebook estaban desarrollando síntomas similares al TEPT después de dejar el trabajo. Un exmoderador de contenido en Kenia actualmente está demandando a Meta y uno de sus subcontratistas, alegando que la empresa se dedicaba al tráfico de personas y trabajo forzado.

AHORA LEE: Un influencer de crímenes reales consiguió 7 fuentes de ingreso en plataformas como TikTok y YouTube.

TAMBIÉN LEE: Por qué pasas horas en TikTok, de acuerdo con expertos que estudian cómo el cerebro percibe el tiempo

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedIn, TikTok y YouTube

AHORA VE: