• BERT, el nuevo software de IA de Google interpreta mejor cuando alguien busca resultados subidos de tono.
  • Este ayudó a reducir en 30% los resultados explícitos generados al buscar términos como "adolescente latina", "dormitorio universitario", "instructora de yoga latina" y otros.
  • Google también utilizará MUM, una herramienta de IA para detectar cuándo mostrar recursos de apoyo relacionados con el suicidio, la violencia doméstica, la agresión sexual y el abuso de sustancias.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Cuando la actriz estadounidense Natalie Morales realizó una búsqueda en Google de «Latina teen» (adolescente latina) en 2019, describió en un tuit que todo lo que encontró fue pornografía. Su experiencia podría ser diferente ahora.

Google dijo que recortó los resultados sexualmente explícitos en 30% en el último año en las búsquedas de términos como «adolescente latina»; así como otras relacionadas con la etnia, la preferencia sexual y el género.

Además de «adolescente latina», otras consultas que ahora muestran resultados diferentes son «la chef lesbienne», «dormitorio universitario», «instructora de yoga latina» y «autobús de lesbianas».

Tulsee Doshi, jefa de producto del equipo de Inteligencia Artificial (IA) responsable de Google, dijo que la compañía puso en marcha un nuevo software de IA, conocido como BERT, para interpretar mejor cuándo alguien busca resultados subidos de tono o más generales.

«Todo ha sido un conjunto de resultados excesivamente sexualizados», dijo Doshi, añadiendo que eran potencialmente impactantes para muchos usuarios.

Morales no respondió de inmediato a una solicitud de comentarios a través de un representante. Su tuit de 2019 decía que estaba buscando imágenes para una presentación, pero que había notado un contraste en los resultados de solo «adolescente» y pidió a Google que investigara.

Google lleva años tratando de reducir la cantidad de contenidos ofensivos que surgen en su buscador

El gigante de las búsquedas lleva años abordando los comentarios sobre contenidos ofensivos en sus herramientas publicitarias y en los resultados de las búsquedas de «hot» y «ceo».

La compañía también recortó los resultados sexualizados de «chicas negras» después de que un artículo de 2013 de la autora Safiya Noble planteara su preocupación por las representaciones dañinas.

El miércoles, Google añadió que en las próximas semanas utilizaría una herramienta de IA llamada MUM. Esta detectará mejor cuando mostrar recursos de apoyo relacionados con el suicidio, la violencia doméstica, la agresión sexual y el abuso de sustancias.

MUM debería de distinguir en expresiones como «lugares de suicidio en Sidney» una consulta para saltar y no de viaje. También ayudará con preguntas más largas, como «por qué me atacó cuando le dije que no lo amaba» y «las formas más comunes de suicidio», señaló Google.

Con información de Reuters.

AHORA LEE: Google Cloud deja de aceptar nuevos clientes en Rusia

TAMBIÉN LEE: Google mantendrá Ad Id, su herramienta publicitaria, al menos dos años —pero explora opciones para dar más privacidad

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter y Youtube

AHORA VE: