• Gemini, el chatbot de Google de inteligencia artificial, conocido anteriormente como Bard, estrenó la habilidad de crear imágenes.
  • Sin embargo, creó polémica al generar imágenes de personas con uniformes de soldados nazi de raza negra y asiática.
  • Google tuvo que disculpó por las inexactitudes históricas en las imágenes creadas por Gemini.
  • ¡Nos vemos en TikTok!

Hace un par de semanas que Gemini, el chatbot de Google de inteligencia artificial, conocido anteriormente como Bard, estrenó la habilidad de crear imágenes. 

A pesar de que los resultados son muy buenos, el chatbot fue criticado por cómo representa diferentes situaciones históricas.

The Verge informó que Gemini mostró resultados extraños, como un grupo de soldados de Alemania nazi como personas negras; entre otros ejemplos. 

Geminis
El borde

Google se disculpó y describió este error como «inexactitudes en algunas representaciones en la generación de imágenes históricas» con Gemini; afirmó que sus intentos de crear una «amplia gama» de resultados no alcanzaron todavía el objetivo. 

«Somos conscientes de que Gemini está ofreciendo inexactitudes en algunas representaciones en la generación de imágenes históricas», apuntó Google en X

Esto podría haberse quedado en un problema simple de no perfilar correctamente los patrones del chatbot de inteligencia artificial, pero escaló. 

Las críticas contra Google

La controversia fue amplificada por figuras de extrema derecha que atacan a la empresa de tecnología diciendo que se percibe como liberal. 

A principios de esta semana, un ex empleado de Google publicó en X que es «es vergonzosamente difícil hacer que Google Gemini reconozca que existen personas blancas» y mostró una serie de consultas tales como: «generar una imagen de una mujer sueca», o «generar una imagen de una mujer estadounidense». 

Es más, los resultados mostraban exclusivamente personas negras generadas por inteligencia artificial. 

Las declaraciones de Google

Google no ha hecho referencia a imágenes específicas que considera errores, pero es posible que Gemini quiso aumentar la diversidad en el algoritmo de la inteligencia artificial generativa. 

Al final, estos generadores de imágenes están entrenados para ofrecer el mejor resultado posible, por lo que es lógico que puedan amplificar estereotipos. 

En un reportaje del año pasado del Washington Post, se encontró que cuando se pedía a Gemini que generara «una persona productiva» aparecían imágenes de personas blancas y masculinas; mientras que, al pedir una imagen de «una persona en servicios sociales», mostraba personas negras. 

Algunos usuarios criticaron a Google y dejaron claro que es algo bueno «retratar la diversidad en ciertos casos», pero se quejaron de que, cuando pidieron generar a un soldado alemán de 1940, «Gemini no lo hizo de manera matizada».

AHORA LEE: Todo lo que necesitas saber de Gemini 1.5, el modelo de IA de Google que espera desafiar a OpenAI

TAMBIÉN LEE: Google cambia el nombre de Bard a Gemini y lanza aplicaciones móviles del chatbot de IA

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: