• Un nuevo "Modo de seguridad" de Twitter podría bloquear automáticamente a los trolls que buscan interactuar con los usuarios.
  • La función fue desarrollada conjuntamente con expertos en seguridad digital y salud mental.
  • El impulso para aumentar las funciones de seguridad en las redes sociales se produce cuando las empresas enfrentan críticas por no hacer lo suficiente.

Twitter dió un paso más hacia la moderación de trolls, bots e interacciones disruptivas en su plataforma con su próxima función de «Modo de seguridad».

Al activar el «Modo de seguridad» en la configuración, un usuario puede hacer que Twitter busque y bloquee automáticamente las interacciones de las cuentas «dañinas» durante siete días, dijo la compañía.

Las cuentas que estén bloqueadas con esta función no podrán seguir a un usuario, ver sus tuits o enviarle mensajes directos, aunque solo temporalmente.

Los algoritmos de Twitter pueden evaluar la probabilidad de que una cuenta interactúe negativamente con un usuario; desde enviar tuits o respuestas repetitivos y no deseados hasta insultos directos o discursos de odio. El algoritmo tiene en cuenta la relación y la interactividad entre los usuarios, de modo que no bloquea accidentalmente cuentas familiares y amistosas que el sistema puede etiquetar como potencialmente dañinas.

«Nuestro objetivo es proteger mejor a la persona que recibe los tuits reduciendo la prevalencia y la visibilidad de los comentarios dañinos», dijo Jarrod Doherty, líder de producto de Twitter.

Twitter Trolls
Modo de seguridad de Twitter. Twitter

Durante el desarrollo, el equipo detrás del «Modo de seguridad» trabajó con expertos en seguridad en línea, salud mental y derechos humanos.

El Consejo de Confianza y Seguridad de Twitter, compuesto por grupos asesores independientes de todo el mundo, también participó para «garantizar que [la función] implique mitigaciones que protejan el contra discurso y, al mismo tiempo, aborde el acoso en línea hacia mujeres y periodistas», dijo Article 19, una organización digital y de derechos humanos en el consejo.

Twitter lleva varios años probando maneras de frenar a los trolls y otras cuentas nocivas de su plataforma

El gigante de las redes sociales ha tomado medidas para tratar de limitar la cantidad de información y retórica dañina que circula en su plataforma.

Twitter lanzó esfuerzos más amplios en 2017 para crear algoritmos que pudieran identificar e interrumpir el contenido abusivo. En 2018, la compañía publicó datos sobre más de 10 millones de tuits vinculados a campañas de desinformación en el extranjero.

Más recientemente, Twitter revisó a más de 11.7 millones de cuentas, suspendió más de 1,496 y eliminó más de 43,010 piezas de contenido a nivel mundial que contenían información errónea sobre el Covid-19 desde que presentó su lista de pautas en 2020, dijo un portavoz a Insider.

Twitter y otras compañías de redes sociales han aumentado sus inversiones en tecnología que puede someter a los trolls de internet después de enfrentar continuas críticas por no hacer lo suficiente para tomar medidas enérgicas contra los infractores de los términos de servicio.

Los investigadores y servicios de terceros también han estado desarrollando herramientas en tiempo real para rastrear la actividad de los trolls en plataformas como Twitter, Facebook y Reddit; específicamente, en lo que respecta a las campañas de desinformación.

El «Modo de seguridad» está siendo probado en pequeños grupos de retroalimentación y no está ampliamente disponible; sin embargo, la compañía planea llevarlo a todos una vez que se hayan realizado los ajustes y las mejoras.

AHORA LEE: Twitter lanza la función de suscripción «Super Follows»

TAMBIÉN LEE: Twitter inicia pruebas para permitir que usuarios marquen tuits engañosos

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter YouTube