• ChatGPT ha estado actuando de manera extraña, con usuarios que se quejan de la "pereza" del chatbot.
  • OpenAI ha implementado una solución, pero el comportamiento extraño de ChatGPT muestra cuánto desconocemos sobre los modelos de IA.
  • Un investigador de IA dijo a BI que un flujo de datos proveniente de las interacciones de los usuarios podría estar causando que ChatGPT cambie de manera extraña.
  • ¡Nos vemos en TikTok!

ChatGPT ha actuado de manera extraña en los últimos meses.

Los usuarios se han quejado que el ChatGPT se ha vuelto cada vez más perezoso e incluso un poco descarado. OpenAI reconoció el problema y lanzó una solución en enero.

La naturaleza opaca del modelo de IA que sustenta a ChatGPT dificulta decir qué está pasando con el chatbot; pero un investigador piensa que es la enorme cantidad de datos obtenidos de las interacciones de los usuarios lo que está causando que cambie de manera impredecible.

«Un modelo como GPT-4 no es un único modelo. Es un sistema de aprendizaje que cambia rápidamente con el tiempo», dijo James Zou, profesor e investigador de IA en la Universidad de Stanford, a Business Insider.

«Una gran razón por la que los sistemas están evolucionando con el tiempo es que continuamente reciben datos de retroalimentación de millones de usuarios. Creo que esa es una gran fuente de posibles cambios en el modelo», añadió.

Los modelos de IA como GPT-4 son continuamente ajustados y actualizados. OpenAI depende de las interacciones con los usuarios para entrenar a ChatGPT y hacerlo más conversacional y útil.

Funciona a través de un proceso llamado aprendizaje por refuerzo a partir de la retroalimentación humana. El modelo de IA aprende qué respuestas son más favorables para los usuarios y se ajusta en consecuencia.

Los usuarios de ChatGPT dijeron que el bot se estaba volviendo perezoso

En los últimos meses, los usuarios del chatbot —alrededor de 1,700 millones— se han quejado de que se está comportando de manera extraña.

Algunos publicaron en X que ChatGPT se negaba a completar algunas tareas; tmbién, que proporcionaba respuestas más cortas de lo esperado, con un desarrollador incluso sugiriendo que el modelo de IA estaba tomando unas merecidas vacaciones de invierno.

OpenAI reconoció el problema y lanzó una solución, con el CEO Sam Altman diciendo que ChatGPT ahora debería ser «mucho menos perezoso».

Los expertos en IA a menudo dicen que modelos como GPT-4 son básicamente cajas negras: incluso sus desarrolladores no pueden explicar completamente por qué toman algunas decisiones o responden de ciertas maneras.

Como resultado, tienden a mostrar un comportamiento inesperado y a menudo extraño, como algunos usuarios descubrieron recientemente cuando se dieron cuenta de que ChatGPT proporcionaría respuestas más largas si prometían darle una propina de 200 dólares.

Según Zou, algunas de estas peculiaridades probablemente se deben a los sesgos humanos heredados de las vastas cantidades de datos en línea en los que se entrena el chatbot.

«Estos modelos a menudo se entrenan con datos a escala de internet, un corpus enorme de texto compuesto por millones de sitios web y discusiones en línea», dijo.

«Así que hay muchos comportamientos y sesgos humanos diferentes en el conjunto de datos de entrenamiento que también se reflejan en los modelos de lenguaje», agregó.

Zou dijo que otra razón para los cambios en el comportamiento de GPT-4 podría ser los intentos de OpenAI de agregar salvaguardas adicionales al modelo para prevenir su mal uso. Argumentó que esto podría dañar inadvertidamente el rendimiento de ChatGPT.

Señaló experimentos realizados por su equipo en Stanford con modelos de IA de código abierto; estos mostraron que ajustarlos para hacerlos más seguros también los volvía menos dispuestos a dar respuestas a ciertas preguntas.

«OpenAI ha decidido que sus valores están relacionados con la inocuidad, la ayuda y la honestidad, y esas son las áreas que están priorizando», dijo.

«Eso puede llevar a algunos objetivos en competencia. Si haces que el modelo sea muy inofensivo, quizás eso también haga que el modelo sea menos creativo o menos útil para algunos», agregó.

«Creo que eso también podría ser parte de la razón por la que estamos viendo potencialmente algunos cambios o derivas en el comportamiento del modelo».

OpenAI no respondió de inmediato a una solicitud de comentarios de Business Insider, hecha fuera del horario laboral normal.


AHORA LEE: ChatGPT pronto podrá recordar tus conversaciones

TAMBIÉN LEE: Cómo OpenAI planea hacer de ChatGPT un asistente ‘superinteligente’ que use tu computadora por ti

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: