• Los chatbots de IA como ChatGPT se basan en grandes modelos de lenguaje que reciben una gran cantidad de información.
  • También están entrenados por humanos que ayudan al sistema a "aprender" cuál es la respuesta adecuada.
  • Así es como los expertos en informática explican cómo los chatbots saben qué palabras decir a continuación.
  • ¿Ya conoces nuestra cuenta de Threads? Síguenos.

ChatGPT y otros chatbots impulsados por inteligencia artificial pueden «hablar» con fluidez y generar oraciones gramaticalmente sólidas que incluso pueden tener un ritmo natural.

Pero no confundas ese discurso bien ejecutado con pensamiento, emoción o incluso intención, dicen los expertos.

La manera en que funciona un chatbot se parece mucho más a una máquina que realiza cálculos matemáticos y análisis estadísticos para invocar las palabras y oraciones adecuadas según el contexto, dijeron los expertos. Hay mucha capacitación detrás del sistema, incluso por parte de anotadores humanos que también le brindan retroalimentación, que ayuda a simular conversaciones funcionales.

Los chatbots como ChatGPT también están entrenados en grandes cantidades de conversaciones que han enseñado a las máquinas cómo interactuar con usuarios humanos. OpenAI, la compañía detrás de ChatGPT, dice en su sitio web que sus modelos reciben instrucciones de información de una variedad de fuentes, incluidos sus usuarios y el material que tiene bajo licencia.

Así es como funcionan los chatbots como ChatGPT

Los chatbots de IA como ChatGPT de OpenAI se basan en grandes modelos de lenguaje —o LLM, por sus siglas en inglés— que son programas entrenados en volúmenes de texto obtenidos de escritos publicados e información en línea (generalmente contenido producido por humanos).

Los sistemas se entrenan en series de palabras y aprenden la importancia de las mismas, dijeron los expertos. Entonces, todo ese conocimiento absorbido no solo entrena grandes modelos lingüísticos con información objetiva, sino que también les ayuda a adivinar patrones de habla y cómo se usan y agrupan típicamente las palabras.

Los humanos también capacitan mejor a los chatbots sobre cómo proporcionar respuestas adecuadas y limitar los mensajes dañinos.

«Se puede decir: ‘Esto es tóxico, es demasiado político, es opinión’ y formularlo para que no genere esas cosas», dijo Kristian Hammond, profesor de informática en la Universidad Northwestern. Hammond también es director del Centro para el avance de la seguridad de la inteligencia artificial de la universidad.

Cuando le pides a un chatbot que responda una pregunta fáctica simple, el proceso de recuperación puede ser sencillo: implementa un conjunto de algoritmos para elegir la oración más probable con la que responder. Y selecciona las mejores respuestas posibles en milisegundos y, de esas mejores opciones, presenta una al azar. (Es por eso que hacer la misma pregunta repetidamente puede generar respuestas ligeramente diferentes).

También puede dividir las preguntas en varias partes, responder cada una en secuencia y utilizar sus respuestas para terminar de responder.

Supongamos que le pediste al chatbot nombrar a un presidente de Estados Unidos que comparte el nombre del actor principal de la película «Camelot». El robot podría responder primero que el actor en cuestión es Richard Harris y luego usar esa respuesta para darte a Richard Nixon como respuesta a tu pregunta original, dijo Hammond.

«Sus propias respuestas más tempranas se convierten en parte del mensaje», dijo Hammond.

Cuidado con lo que los chatbots no saben

¿Qué sucede cuando le haces una pregunta cuya respuesta no sabe? Ahí es donde los chatbots crean más problemas debido a un rasgo inherente: no saben lo que no saben. Entonces extrapolan, basándose en lo que sí saben, es decir, hacen una suposición.

Pero no te dicen que están adivinando; es posible que simplemente presenten la información como un hecho. Cuando un chatbot inventa información que presenta a un usuario como objetiva, se llama «alucinación».

«Esto es lo que llamamos conocimiento del conocimiento o metacognición», dijo William Wang, profesor asociado de informática en la Universidad de California, Santa Bárbara. También es codirector del grupo de procesamiento del lenguaje natural de la universidad.

«El modelo realmente no comprende muy bien las incógnitas conocidas», dijo.

AHORA LEE: ChatGPT está en camino a generarle 1,000 millones de dólares a OpenAI en ventas anuales, revela informe

TAMBIÉN LEE: El mundo de la tecnología se está dividiendo en ‘ricos y pobres’ en GPU; estas son las empresas en cada grupo

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: