• Un grupo de empleados de Facebook descubrió un error en el algoritmo de la red social que aumentó la visibilidad del contenido prohibido por sus políticas.
  • Este problema causó que la mitad de las cuentas de la plataforma fueran expuestas a estos contenidos dañinos en sus Feeds.
  • El error incrementó la visualización  de contenido dañino 30% a nivel global en los últimos seis meses.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Meta admitió la existencia de un error en el algoritmo de Facebook que dio visibilidad a las publicaciones con contenido dañino prohibidas por sus políticas, como desnudos o violencia, y que se prolongó durante los últimos seis meses hasta su reparación en marzo.

Un grupo de ingenieros de Facebook descubrió el fallo y alertó sobre él en un documento interno al que tuvo acceso The Verge. El error se descubrió en octubre de 2021, cuando se produjo un incremento de la desinformación en el Feed de la red social.

Habitualmente, el algoritmo de Facebook trabaja automáticamente para detectar publicaciones con contenidos dañinos. En estos casos, la visibilidad de los mismos se reduce, siendo relegados e incluso eliminados del Feed de sus usuarios para priorizar contenido adecuado. 

Se trata de un mecanismo que funciona al margen de las tareas de moderación que realizan sus revisores para decidir si deben o no eliminarse ciertos contenidos, aunque resulta complementario. Facebook lo ha usado en varias ocasiones, como para reducir la cantidad de noticias políticas que ven los usuarios en sus Feeds.

La visualización de contenidos dañinos en la plataforma se incrementó 30% a nivel mundial debido al fallo en el algoritmo de Facebook

El error en el algoritmo de Facebook, en lugar de reducir, aumentó la distribución de las publicaciones clasificadas como dañinas; de hecho, incrementó su visualización 30% a nivel global en los últimos seis meses.

Después de advertir el error, los ingenieros de Facebook tardaron varias semanas en encontrar una solución al problema del algoritmo; el pasado 11 de marzo se actualizó y volvió a su funcionamiento habitual.

Entre los contenidos promocionados de manera errónea se encuentran tanto publicaciones marcadas por verificadores de noticias como otras que contenían violencia, desnudez e incluso que procedían de medios de comunicación patrocinados por Rusia, que Meta bloquea desde el estallido de la guerra en Ucrania.

Meta confirmó a The Verge la veracidad de la investigación interna y del fallo técnico, que asegura que se incorporó al algoritmo originalmente al software de la red social en el año 2019, aunque no produjo ningún efecto negativo hasta octubre de 2021.

Un portavoz recalcó que el problema no ha supuesto «ningún impacto significativo a largo plazo» en sus métricas. Agregó que tampoco afectó a los contenidos que sus sistemas automáticos marcaron para su eliminación, sino solo a contenidos límite —que no quedan del todo prohibidos por sus políticas—.

AHORA LEE: Los algoritmos de Facebook alentarán más disturbios violentos a nivel mundial, según la denunciante Frances Haugen

TAMBIÉN LEE: Mark Zuckerberg aprobó un cambio en el algoritmo de Facebook que redujo el tráfico a sitios de izquierda —uno denuncia que le costó cientos de miles de dólares

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter y Youtube

AHORA VE: