• Documentos internos de la firma muestran que Facebook sabía que no contrató suficientes trabajadores para controlar contenidos de odio.
  • También mostraron que Facebook emplea inteligencia artificial para erradicar ese contenido que tampoco están a la altura.
  • Ashraf Zeitoon, exjefe de políticas de Facebook para Medio Oriente y África del Norte, dijo que el enfoque de la empresa para el crecimiento global era "colonial".

Los empleados de Facebook llevan años advirtiendo que la compañía no controla el contenido abusivo en países en desarrollo.

Facebook opera en más de 190 países y cuenta con más de 2,800 millones de usuarios mensuales que publican contenido en más de 160 idiomas.

No obstante, sus esfuerzos para impedir que sus productos se conviertan en discursos de odio y desinformación no siguieron el ritmo de su expansión global.

Facebook conocía sus fallas para erradicar contenido

Documentos internos de la firma vistos por Reuters muestran que Facebook sabía que no contrató suficientes trabajadores con las habilidades lingüísticas y el conocimiento de los eventos locales necesarios para identificar publicaciones objetables.

Los documentos también mostraron que Facebook emplea sistemas de inteligencia artificial para erradicar ese contenido que con frecuencia tampoco están a la altura.

Asimismo, tampoco ha hecho fácil que sus propios usuarios globales marquen las publicaciones que violan las reglas del sitio.

Los países en desarrollo tienen brechas significativas en la protección de Facebook

Según advirtieron los empleados en los documentos, esas deficiencias podrían limitar la capacidad de la compañía para bloquear discursos de odio desde Afganistán a Yemen.

En el tablero de mensajes interno, un empleado informó de «brechas significativas» en países de violencia en el mundo real como Myanmar y Etiopía.

Los documentos forman parte de una serie de revelaciones hechas a la Comisión de Bolsa y Valores de Estados Unidos y al Congreso por Frances Haugen, una exgerente de productos de Facebook que dejó la empresa en mayo.

La portavoz de Facebook, Mavis Jones, dijo en un comunicado que la compañía tiene hablantes nativos en todo el mundo que revisan contenidos en más de 70 idiomas, así como expertos en temas humanitarios y derechos humanos.

Según señaló, estos equipos trabajan para frenar el abuso en la plataforma en lugares donde existe un mayor riesgo de conflicto y violencia.

«Sabemos que estos desafíos son reales y estamos orgullosos del trabajo que hemos realizado hasta la fecha», afirmó.

Su algoritmo no alcanza para la detección de discursos de odio

Aún así, los documentos ofrecen ejemplos detallados de cómo empleados alertan sobre las herramientas de la empresa destinadas a erradicar o bloquear discursos de odio.

Entre las debilidades citadas está la falta de algoritmos de detección para los idiomas utilizados en algunos de los países que Facebook ha considerado más «en riesgo» de posibles daños y violencia en el mundo real derivados de abusos en su sitio.

La firma designa a los países «en riesgo» basándose en variables que incluyen disturbios, violencia étnica, número de usuarios y leyes vigentes, dijeron a Reuters dos exempleados. El sistema tiene como objetivo dirigir los recursos a lugares donde los abusos en su sitio podrían tener el impacto más severo, dijeron las personas.

Facebook responsable de los discursos de odio contra la minoría rohinyá

Facebook revisa y prioriza estos países cada seis meses, de acuerdo con las pautas de Naciones Unidas diseñadas para ayudar a las empresas a prevenir y remediar los abusos de los derechos humanos en sus operaciones comerciales, dijo Jones.

En 2018, expertos de la ONU que investigaban una brutal campaña de asesinatos y expulsiones contra la minoría musulmana rohinyá de Myanmar dijeron que Facebook se usaba ampliamente para difundir discursos de odio hacia ellos.

Eso llevó a la compañía a aumentar su personal en países vulnerables, dijo un exempleado a Reuters, aunque Facebook dijo que debería haber hecho más para evitar que la plataforma se usara para incitar a la violencia.

Ashraf Zeitoon, exjefe de políticas de Facebook para Medio Oriente y África del Norte, quien se fue en 2017, dijo que el enfoque de la empresa para el crecimiento global era «colonial», centrado en la monetización sin medidas de seguridad. 

Con información de Reuters

AHORA LEE: Funcionarios de Facebook dijeron a denunciante que se ‘concentrara en lo bueno’, tras hablar sobre el comercio ilegal de drogas en la plataforma

TAMBIÉN LEE: Los recientes registros de marca hechos por Facebook contienen pistas sobre el nuevo nombre de la compañía

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter y Youtube

AHORA VE: