• Google ha aparecido en los titulares por los varios errores que presentan sus productos de IA.
  • Según se informa, la vicepresidente de búsqueda de Google dijo en una reunión que la empresa no debería dejar de correr riesgos debido a errores.
  • Varios expertos opinaron sobre la estrategia de Google y los riesgos que podrían surgir de ella.
  • ¡Nos vemos en TikTok!

Todas las grandes empresas tecnológicas están compitiendo para ampliar sus capacidades de inteligencia artificial y lanzar nuevos productos; sin embargo, Google sigue apareciendo en los titulares por errores en sus productos de IA que se vuelven virales.

Poco después de lanzar su función AI Overviews —que proporciona resúmenes generados por IA para algunas consultas de búsqueda— la gente comenzó a hablar de cómo la función de Google recomendaba comer pizza con pegamento o consumir piedras.

A principios de este año, Google lanzó su herramienta de generación de imágenes en Gemini; sin embargo, esta causó críticas cuando el chatbot recreó de manera inexacta imágenes de personajes históricos. Google reconoció el problema y detuvo la función.

Sin embargo, parece que Google no va a pisar el freno en el corto plazo, incluso con los errores de alto perfil.

Cometer errores no amerita evitar tomar riesgos

La vicepresidenta de búsqueda de Google, Liz Reid, abordó el reciente fiasco del pegamento para pizza y de comer piedras en una reunión reciente. En esta, la ejecutiva aprovechó la oportunidad para reafirmar la estrategia de IA de la Google, según un audio filtrado obtenido por CNBC.

«Es importante que no retengamos funciones sólo porque pueda haber problemas ocasionales», dijo Reid en la reunión.

Reid agregó que Google debería abordar los problemas cuando se descubran y «actuar con urgencia»; sin embargo, eso no significa que «no deba correr riesgos», informó CNBC.

Lorenzo Thione, inversionista en IA y socio director del grupo de capital riesgo Gaingels, dijo a Business Insider que, en general, cree que es la decisión correcta sacar a la luz las funciones experimentales. Pero dijo que los usuarios necesitan saber cuándo y cómo pueden confiar en los resultados. Thione dijo que las divulgaciones de productos deben ser diferentes cuando la herramienta que se utiliza es el editor, curador y moderador.

Google señala en sus productos que «la IA generativa es experimental». También tiene una guía de seguridad para desarrolladores que establece que las herramientas de IA generativa «a veces pueden generar resultados inesperados, como resultados inexactos, sesgados u ofensivos».

Google está lejos de ser la única empresa que se da cuenta de los riesgos de los productos de IA generativa. Tim Cook dijo que Apple Intelligence seguramente se equivocará en algunas cosas, aunque no espera que sea frecuente. Microsoft también dijo el jueves pasado que pospondría el lanzamiento de una herramienta de IA que debería estar disponible cuando se envíen sus PC CoPilot, después de que surgieran preocupaciones sobre la privacidad.

Pero el CEO de la plataforma de IA Copyleaks, Alon Yamin, dijo a BI que al lanzar funciones a gran escala en la Búsqueda de Google, la empresa está haciendo que esos errores sean particularmente visibles. La alternativa es ser más gradual en el lanzamiento de funciones y no colocarlas en el centro si no están completamente listas, dijo.

Yamin agregó que tiene sentido que Google quiera lanzar productos más rápido debido a que está «atrasado» en la carrera de la IA. Pero si bien la IA generativa no es totalmente infalible en este momento, es importante equilibrar el tiempo con la innovación y la precisión, afirmó.

Reid escribió anteriormente en una publicación de blog que Google construye «barandillas de calidad y seguridad en estas experiencias» y las prueba exhaustivamente antes del lanzamiento. Pero Reid dijo en la reunión general que Google «no siempre encontrará todo», según el informe de CNBC.

Vale la pena señalar que estos errores no parecieron surgir con frecuencia. Un portavoz de Google dijo que la «gran mayoría» de los resultados son precisos y que la compañía encontró una violación de la política en «menos de una de cada 7 millones de consultas únicas con descripciones generales de IA».

Pero si bien la sugerencia de pegar queso en la pizza y comer piedras puede ser un error menor, Yamin dijo que podrían surgir riesgos más graves en torno a la privacidad, la seguridad y los derechos de autor, y cuanto más rápido se trabaje, mayor será el riesgo.

AHORA LEE: En la carrera de la IA, las grandes empresas tecnológicas siguen teniendo tropezones

TAMBIÉN LEE: ¿Google entrena su inteligencia artificial con videos de YouTube?

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: