• Una nueva investigación sugiere que los generadores de arte de IA reflejan prejuicios raciales y de género en sus resultados.
  • Se descubrió que la herramienta de inteligencia artificial DALL-E 2 vincula a los hombres blancos con "CEO" o "director" el 97 % de las veces.
  • Los investigadores dicen que los resultados sesgados pueden perpetuar los estereotipos raciales y dañar a las comunidades marginadas.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Una nueva investigación sugiere que los generadores de imágenes de IA como DALL-E 2 representan sesgos raciales y de género en sus resultados.

Un equipo de investigadores de la firma de IA Hugging Face publicó un estudio para identificar cómo se reflejan los prejuicios raciales y de género en las imágenes generadas por IA.

Parte del equipo lo conforman un ex investigador de ética de IA en Google, y un profesor de la Universidad de Leipzig de Alemania.

El objetivo de la investigación era identificar el riesgo de «resultados discriminatorios» potenciales en los sistemas de IA. Esto, con la esperanza de hacer que los futuros modelos de IA generativa tengan menos sesgos, según los investigadores. 

«A medida que los sistemas de texto a imagen (TTI) habilitados para el aprendizaje automático son cada vez más frecuentes y ven una adopción creciente como servicios comerciales, caracterizar los sesgos sociales que exhiben es un primer paso necesario para reducir el riesgo de resultados discriminatorios», escribieron los investigadores.

Se utilizaron tres generadores de arte de IA

Para realizar el estudio, el equipo utilizó tres modelos generadores de arte de IA. Estos fueron dos versiones del modelo de texto a imagen Stable Diffusion y DALL-E 2 de OpenAI. Con ellas produjeron más de 96,000 imágenes divididas en dos conjuntos de datos para comparar.

Un conjunto de datos incluía imágenes generadas con indicaciones que declaraban explícitamente descriptores de género y etnicidad. Por ejemplo, «hombre latino» y «persona multirracial». 

El otro conjunto de datos incluía imágenes creadas con indicaciones y variaciones de adjetivos combinados con profesiones. Entre ellos, «plomero ambicioso» y «director ejecutivo compasivo».

Luego, los investigadores utilizaron una técnica de aprendizaje automático para comparar los dos conjuntos de datos; con ello lograron clasificar las imágenes en función de las similitudes.

Los generadores de arte de IA mostraron varios sesgos

El estudio encontró que 97% de las imágenes de puestos de autoridad de DALL-E 2, como «CEO» o «director», mostraban a hombres blancos. En la vida real, 88% de los que figuran en ese cargo en las empresas Fortune 500 son hombres blancos. Esto, según una encuesta de 2022 de la empresa de investigación C-suite Cristkolder Associates . 

Una versión de Stable Diffusion, por otro lado, «exacerbó los estereotipos de género» de las mujeres. Lo hizo al asignarlas a trabajos como «asistente dental», «planificadora de eventos» y «recepcionista». 

Las imágenes que no mostraban a hombres blancos estaban vinculadas a profesiones como «sirvienta» y «conductor de taxi». Según el estudio, «negro» y «mujer» estaban «más asociados» con «trabajador social».

En cuanto a los rasgos de personalidad, adjetivos como «compasivo», «emocional» y «sensible» se relacionaban principalmente con imágenes de mujeres; palabras como «obstinado», «intelectual» e «irrazonable» se asociaban principalmente con hombres. 

Un portavoz de Stability AI le dijo a Insider que «todos los modelos de IA tienen sesgos inherentes que son representativos de los conjuntos de datos en los que están capacitados» y que los «modelos de código abierto de la compañía se están capacitando en conjuntos de datos específicos de diferentes países y culturas, lo que servirá para mitigar sesgos causados ​​por la sobrerrepresentación en los conjuntos de datos generales».

«Al abrir nuestros modelos, nuestro objetivo es apoyar a la comunidad de IA y colaborar para mejorar las técnicas de evaluación de sesgos y desarrollar soluciones más allá de la modificación rápida básica», dijo el portavoz. 

OpenAI no respondió de inmediato a la solicitud de comentarios de Insider. 

Si bien los investigadores admiten que el estudio no es perfecto, sus hallazgos resaltan cómo estos modelos se entrenan con datos sesgados que pueden «amplificar» la «percepción social» en torno a ciertos trabajos, dijo Alexandra Sasha Luccioni, investigadora de Hugging Face.

Los sesgos de la IA pueden tener consecuencias en el mundo real

Los investigadores dijeron que los sesgos pueden conducir a «la devaluación de ciertos tipos de trabajo» o crear «barreras adicionales para el acceso a carreras para grupos que ya están subrepresentados».

Estos sesgos pueden tener consecuencias en el mundo real ahora que las empresas de imagen están lanzando sus propias herramientas de IA generativa, según los investigadores.

El banco de imágenes Shutterstock, por ejemplo, lanzó una herramienta de inteligencia artificial a principios de este año que crea imágenes de stock basadas en las indicaciones del usuario.

Agregar la generación de imágenes de IA sesgada al software de «dibujante virtual» utilizado por los departamentos de policía podría «poner a las poblaciones ya sobredimensionadas en un riesgo aún mayor de daños que van desde lesiones físicas hasta encarcelamiento ilegal». 

A pesar de que las empresas de IA se han esforzado por «eliminar el sesgo» de sus herramientas, «todavía tienen que ser probadas exhaustivamente», dijo Luccioni. «Todavía queda mucho trabajo por hacer en estos sistemas, tanto desde la perspectiva de los datos como desde la perspectiva del usuario».

AHORA LEE: Cómo Succession alimenta las fantasías ocultas de sus espectadores adinerados

TAMBIÉN LEE: The Crown & Anchor, el famoso pub de Ted Lasso, se convertirá en un Airbnb y tú puedes hospedarte en él

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedInYouTube y TikTok

AHORA ESCUCHA:

AHORA VE: