• Una cadena de supermercados de Nueva Zelanda creó un robot de planificación de comidas usando IA.
  • Savey Meal-Bot de PAK'nSAVE recomienda recetas basadas en ingredientes sobrantes.
  • Pero algunas recetas llamaron la atención, contenían desde cloro gaseoso hasta sándwiches de veneno para hormigas y pegamento.
  • ¡Síguenos en Google News!

El experimento de un supermercado de Nueva Zelanda con IA ha llamado la atención después de que un bot diseñado para generar planes de comidas produjo algunas recetas altamente peligrosas, informó The Guardian.

Savey Meal-Bot, creado por la cadena de supermercados PAK’nSAVE, utiliza Chat GPT-3.5 para ayudar a los usuarios a crear comidas a partir de cualquier alimento que les haya sobrado en su refrigerador.

Requiere que los usuarios ingresen solo tres ingredientes caseros, o más, para generar una receta, que luego viene con un nombre y una descripción sugeridos.

El bot se creó para ayudar a las personas a ahorrar dinero y reducir el desperdicio de alimentos, según un informe del mes pasado de FMCG Business.

Recetas fatales que están llamando la atención de todos

Pero aunque la herramienta en línea a veces ofrece ideas útiles, las recetas que ha ofrecido a algunos usuarios están atrayendo una atención no deseada.

The Guardian informó que una receta, llamada «mezcla de agua aromática», en realidad crearía gas de cloro. El bot describió la receta como «la bebida sin alcohol perfecta para saciar la sed y refrescar los sentidos».

La inhalación de cloro gaseoso puede provocar vómitos, asfixia e incluso la muerte.

Otros usuarios informaron que les recomendaron un cóctel sin alcohol de «aliento fresco» que contenía lejía y una «sorpresa de arroz con infusión de lejía», según The Guardian.

El bot incluso recomendó sándwiches de veneno para hormigas y pegamento, así como «felicidad de metanol», hechos con metanol, pegamento y trementina.

PAK’nSAVE no respondió de inmediato a la solicitud de comentarios de Insider.

Las recetas peligrosas se originaron porque usuarios ingresaban esos ingredientes

Pero un portavoz de la cadena de supermercados le dijo a The Guardian que estaban decepcionados al ver que «una pequeña minoría ha tratado de usar la herramienta de manera inapropiada y no para el propósito previsto».

En un comunicado, el supermercado dijo que está «afinando» el bot para garantizar que sea seguro y útil de usar.

El ajuste parece estar funcionando, ya que las recetas peligrosas destacadas anteriormente ya no están disponibles.

El bot prohibió ingresar ciertos ingredientes

Cuando Insider intentó ingresar los mismos ingredientes peligrosos en el bot, un mensaje decía: «Se encontraron ingredientes no válidos o demasiado vagos. Inténtelo de nuevo».

Pero si bien las recetas potencialmente mortales pueden no estar disponibles, el robot del supermercado aún recomendó algunas creaciones inusuales, incluida una «pasta de carne con pasta de dientes».

AHORA LEE: Diez formas en las que la inteligencia artificial ya está cambiando el mundo laboral

TAMBIÉN LEE: Inteligencia artificial generativa, crecimiento y productividad

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: