• Facebook no se modera por igual en todos los países, revelan nuevos documentos.
  • Según se informa, Facebook divide a los países en niveles para decidir cómo se maneja la moderación de contenido por país.
  • Estados Unidos, India y Brasil tienen la máxima prioridad, mientras que la mayor parte del mundo recibe pocos recursos.

Con casi 3,000 millones de personas utilizando su servicio, Facebook tiene que tomar algunas decisiones importantes cuando se trata de moderación de contenido.

En lugar de aplicar los recursos por igual en todo el planeta, los líderes de la empresa deciden concentrar la mayor cantidad de éstos en países donde Facebook es más popular, según un nuevo reporte.

En documentos internos de Facebook revisados ​​por The Verge, un grupo de la compañía se reunió a finales de 2019 para discutir la mejor manera de enfocar los recursos de moderación de contenido en todo el mundo antes de varias elecciones importantes.

Los documentos formaban parte de los Documentos de Facebook, una serie de informes publicados por un consorcio de 17 organizaciones de noticias estadounidenses que dijeron que habían revisado documentos internos obtenidos por la denunciante Frances Haugen.

Entre los países que recibieron más atención de Facebook para la moderación de contenido están Estados Unidos, Brasil e India

A Estados Unidos, Brasil e India se les dio la consideración de «nivel cero»: la mayor cantidad de recursos y la supervisión continua más proactiva. Países como Israel, Irán, Italia y Alemania ocuparon un escalón en el «nivel uno», según el informe.

Según The Verge, 30 países reciben recursos adicionales a través del sistema de moderación basado en niveles de Facebook; sin embargo, el resto del mundo se queda con una supervisión comparativamente insignificante.

La única manera en que Facebook puede ver cualquier problema para los países en el nivel tres sería que los moderadores lo destaquen directamente, según los documentos.

Facebook ha enfrentado críticas durante años por problemas de moderación. El caso más reciente fue por el uso del servicio como herramienta para organizar el intento de insurrección del 6 de enero.

Capitol Riot Trump Signs
Partidarios de Trump chocan con la policía y las fuerzas de seguridad cuando intentan ingresar al Capitolio de los Estados Unidos el 6 de enero. Brent Stirton / Getty Images

En 2018, Facebook admitió que no hizo lo suficiente para detener la propagación del discurso de odio y la violencia en Myanmar.

«Creo que está claro que la gente estaba tratando de usar nuestras herramientas para provocar un daño real», dijo a Vox el CEO de Facebook, Mark Zuckerberg, en abril de 2018.

Peor: en países como Myanmar, donde Facebook es la forma principal de Internet, esos problemas se amplifican.

«Todo se hace a través de Facebook en Myanmar», dijo el investigador de Myanmar de la ONU, Yanghee Lee, al Consejo de Derechos Humanos de la ONU en marzo de 2018. «Los budistas ultranacionalistas tienen sus propios Facebook y realmente están incitando a mucha violencia y odio contra los rohingya u otras minorías étnicas… Me temo que Facebook ahora se ha convertido en una bestia, y no en lo que pretendía originalmente».

Facebook dice que en realidad es más flexible con cómo utiliza sus recursos de moderación de contenido en diferentes países

Por su parte, Facebook dijo que es más flexible con sus recursos de moderación de contenido que los documentos indican.

«En una crisis, determinaremos qué tipo de apoyo y equipos necesitamos dedicar a un país o idioma en particular, y durante cuánto tiempo debemos mantenerlos en su lugar», dijo la directora de política de derechos humanos de Facebook, Miranda Sissons, y respuesta estratégica internacional. La directora Nicole Isaac escribió en una publicación de blog el lunes por la mañana respondiendo al informe.

Por separado, cuando se le contactó para hacer comentarios, un portavoz de Facebook proporcionó a Insider la siguiente declaración.

«Contamos con equipos dedicados que trabajan para detener el abuso en nuestra plataforma en países donde existe un mayor riesgo de conflicto y violencia. También tenemos equipos globales con hablantes nativos que revisan el contenido en más de 70 idiomas junto con expertos en temas humanitarios y de derechos humanos. Ellos han hecho progreso al abordar desafíos difíciles, como la evolución de los términos del discurso de odio, y hemos creado nuevas formas de responder rápidamente a los problemas cuando surgen. Sabemos que estos desafíos son reales y estamos orgullosos del trabajo que hemos realizado hasta la fecha».

AHORA LEE: Facebook sabía del contenido abusivo a nivel mundial, pero no lo controló

TAMBIÉN LEE: Funcionarios de Facebook dijeron a denunciante que se ‘concentrara en lo bueno’, tras hablar sobre el comercio ilegal de drogas en la plataforma

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter y Youtube

AHORA VE: