• La asociación Social Media Victims Law Center demandó a Meta, TikTok y Snap porque consideran que están promoviendo el suicidio entre los adolescentes.
  • Los demandantes no denuncian el contenido en sí, sino las propias estructuras de estas plataformas como responsables de los daños en sus hijos.
  • Esta se suma a una lista de 20 denuncias contras las tecnológicas en California.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Meta, Snap y TikTok enfrentan una demanda hecha por un grupo de padres en Estados Unidos. Los demandantes señalan que esas redes sociales promueven desórdenes alimenticios, el suicidio y dañan la salud mental de los jóvenes y no hacen nada por evitarlo. La denuncia la hicieron a través la asociación Social Media Victims Law Center ante la Corte Suprema de Los Ángeles esta semana.

El principal argumento detrás de esta demanda, es que las compañías han priorizado el crecimiento sobre la seguridad de sus usuarios. Esto a pesar de saber sobre los riesgos del contenido disponible en sus plataformas.

La denuncia se suma a una lista de más de 20 por este mismo motivo en California

Los algoritmos de estas plataformas amplifican contenidos peligrosos, denuncian los demandantes.

«Este es el modelo de negocio utilizado por todos los demandados. El engagement y el crecimiento por encima de la seguridad de los usuarios. Así lo demuestra el diseño y el funcionamiento intrínsecamente peligrosos de sus productos de redes sociales», recoge el texto de la demanda a la que tuvo acceso el Hollywood Reporter.

Desde Social Media Victims Law Center creen que las empresas podían, y debían, haber tomado medidas para prevenir estos problemas. Sin embargo, ninguna lo hizo para seguir siendo competitivas ante el resto de plataformas.

«Los demandados eligieron seguir causando daño y ocultaron la verdad en su lugar», continúan en la demanda.

Esos argumentos son algo que los medios de comunicación y profesionales de la salud señalan desde hace mucho tiempo; todo estalló unos meses atrás con el escándalo de los Papeles de Facebook.

En octubre de 2021, Frances Haugen, una exempleada de la compañía fundada por Mark Zuckerberg, reveló cientos de documentos en los que demostraba cómo la propia compañía era consciente del daño que creaba entre los adolescentes. Sin embargo, hasta que la filtración no salió a la luz, la compañía había mantenido todo en un secreto sepulcral.

Desde su publicación, las demandas contra las redes sociales han ido creciendo en los Estados Unidos.

Las demandas presentadas esta semana en la Corte Suprema de Los Angeles intentan eludir una ley federal que establece que las empresas tecnológicas no son responsables del contenido que se publica en sus plataformas, y, por lo tanto, del daño que puedan causar.

Por eso, estas demandas no se centran en el contenido específico, sino en la propia estructura de las plataformas tecnológicas como responsables del daño.

«Las reclamaciones del demandante no surgen del contenido de terceros, sino más bien de las características y diseños del producto de los demandados; incluyendo, pero no limitándose a los algoritmos y otras características del producto que agregan a los usuarios menores de edad. Estos amplifican y promueven la comparación social perjudicial, [y] el contenido perjudicial para los usuarios vulnerables sobre la base de sus datos demográficos individualizados y su actividad en las redes sociales», dice la demanda.

En Europa, ya hay en marcha una propuesta en este sentido para exigir a las empresas tecnológicas responsabilidad sobre lo que aparece en sus plataformas. El Reglamento de Servicios Digitales o DSA, por sus siglas en inglés, exigirá a las plataformas transparencia algorítmica y responsabilidad jurídica.

En los últimos meses, las críticas sobre el papel de las redes sociales en la sociedad y su impacto en la salud mental de las personas se han avivado. Además, se ha ido conociendo poco a poco cómo la estrategia de moderación de las principales redes sociales, de TikTok a YouTube, son ineficaces e incapaces de controlar el aluvión de contenido peligroso que se vierte diariamente en sus espacios.

Los propios moderadores de las plataformas, personas que se dedican manualmente a visionar el contenido y seleccionar y reportar aquello perjudicial para los usuarios, están inmersos en múltiples litigios contra sus empleadores por las condiciones precarias de trabajo que padecen.

AHORA LEE: Un robot de ajedrez le rompió el dedo a un niño de 7 años en un torneo ruso

TAMBIÉN LEE: Walmart prueba máquinas expendedoras móviles en sus estacionamientos

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedInTikTok y YouTube

AHORA VE: