• El algoritmo de sugerencias de YouTube continúa promoviendo videos con información errónea, según un nuevo estudio.
  • YouTube mantiene el algoritmo de sugerencias en secreto, lo que evita que los investigadores estudien cómo funciona.
  • El estudio, encargado por el fabricante de Firefox Mozilla, recopiló respuestas de casi 40,000 usuarios de YouTube.

El algoritmo de YouTube todavía sugiere videos con información errónea, contenido violento y desinformación sobre el Covid-19, según un importante estudio publicado este mes.

Esto no es solo un problema con el vasto archivo de contenido de video de YouTube que no está moderado, sino con el motor de sugerencias en el corazón del servicio de transmisión de video.

Más de 70% de los videos marcados por los encuestados llegaron a través del algoritmo de sugerencias de YouTube. Este es un efecto imposible de estudiar porque el algoritmo es un secreto muy bien guardado en Google.

Eso significa que los usuarios de YouTube no encuentran principalmente información errónea a través de la búsqueda, sino a través de YouTube que ofrece a los usuarios estos videos.

Por ejemplo, un usuario que miraba regularmente videos sobre supervivencia en la naturaleza, «seguía recibiendo canales recomendados de extrema derecha». Un video marcado por el usuario afirma representar a una persona relacionada con la representante Ilhan Omar cometiendo fraude electoral. Las afirmaciones en ese video fueron desacreditadas como falsas; sin embargo, permanece en YouTube.

YouTube realiza varios esfuerzos por reducir el contenido dañino o engañoso de su plataforma, pero sin mucho éxito

«El objetivo de nuestro sistema de recomendaciones es conectar a los espectadores con el contenido que les encanta», dijo un representante de YouTube a Insider. «Trabajamos constantemente para mejorar la experiencia en YouTube y, solo durante el año pasado, lanzamos más de 30 cambios diferentes para reducir las recomendaciones de contenido dañino».

YouTube sufre críticas constantes por las fallas en su algoritmo de sugerencia; desde recomedar videos con información errónea hasta perpetuar teorías de conspiración.

Aunque algunos críticos afirman que el servicio es capaz de radicalizar directamente a los usuarios, el algoritmo de sugerencia es mucho más hábil para componer ideologías previamente sostenidas, según los estudios.

Los representantes de YouTube dijeron a Insider que la compañía busca incorporar investigadores externos para estudiar cómo funciona su algoritmo de sugerencia; sin embargo, no anunció planes específicos.

AHORA LEE: 58% de los internautas mexicanos usó YouTube en el último año para sentirse más conectados con los demás

TAMBIÉN LEE: YouTube lanzará fondo de 100 millones de dólares para creadores de contenido en su plataforma Shorts

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedIn y Twitter