- Los investigadores soltaron 25 avatares de IA en una ciudad virtual.
- Los avatares pudieron hacer horarios diarios, hablar de política, tener citas e incluso planear una fiesta.
- El experto en IA Michael Wooldridge le dijo a Insider que los hallazgos son "pequeños pasos" hacia la inteligencia artificial general.
- ¿Ya conoces nuestra cuenta de Instagram? Síguenos.
¿Qué sucede cuando sueltas a 25 avatares de inteligencia artificial (IA) en una ciudad virtual? Un estudio reciente se propuso ver qué harían, y resulta que no son tan diferentes a las personas reales.
Un equipo de investigadores de la Universidad de Stanford y Google realizó un experimento para ver cómo los avatares generativos de IA pueden «simular un comportamiento humano creíble», como la memoria, utilizando modelos de lenguaje grandes (LLM, por sus siglas en inglés).
Para ello, los investigadores crearon 25 avatares de IA con diferentes identidades y observaron cómo interactuaban entre sí y con su entorno en una ciudad virtual llamada «Smallville». Esta ciudad incluye un dormitorio, un parque, una escuela, una cafetería, un bar, casas y tiendas.
Para simular el comportamiento humano, los investigadores utilizaron GPT 3.5 —el modelo anterior de ChatGPT de OpenAI— para incitar a los avatares a realizar tareas específicas como leer un libro o hablar con un bibliotecario.
Los avatares de IA pudieron hacer horarios diarios, hablar de política, tener citas e incluso planear una fiesta
Después de algunas observaciones, los investigadores concluyeron que estos avatares generativos podían «producir comportamientos sociales individuales y emergentes creíbles».
Los avatares de IA llamados Isabella Rodríguez y Tom Moreno, por ejemplo, debatieron sobre las próximas elecciones de la ciudad. Cuando Isabella le preguntó a Tom qué pensaba de Sam Moore, el candidato a alcalde de Smallville, Tom respondió con su opinión.
«Para ser honesto, no me gusta Sam Moore», dijo Tom. «Creo que no está en contacto con la comunidad y no tiene nuestros mejores intereses en el corazón».
Los personajes también pudieron responder a su entorno. Isabella apagó la estufa y preparó un nuevo desayuno cuando le dijeron que la comida se estaba quemando. El avatar de IA John Lin tuvo conversaciones espontáneas sin que se le indicara durante todo el día, mientras seguía un horario que había hecho.
Los avatares incluso pudieron organizar una fiesta del Día de San Valentín sin indicaciones. Cuando a Isabella se le asignó la tarea, logró invitar de manera «autónoma» a amigos y clientes que conoció en el café local y decorar el lugar de la fiesta.
Los individuos virtuales a los que invitó hicieron planes para llegar juntos a la fiesta a las 5:00 p.m. María, una avatar invitada a la fiesta, incluso le pidió a su «enamorado secreto» Klaus una cita para unirse a ella en la fiesta, y él estuvo de acuerdo.
Los hallazgos de este experimento marcan ‘pequeños pasos’ para alcanzar la inteligencia artificial general
Los hallazgos muestran cómo el modelo generativo de IA detrás de ChatGPT se puede usar más allá de su aplicación como asistente virtual, dijo a Insider Michael Wooldridge, profesor de informática en la Universidad de Oxford que estudia IA y no participó en el estudio.
Woolridge dijo que puede ver que estos hallazgos se aplican de manera realista a las aplicaciones de administración de tareas.
Jaime Sevilla, un investigador de IA que no participó en el estudio, le dijo a Insider que los modelos detrás del estudio podrían aplicarse a personajes no jugables en los videojuegos.
Los investigadores involucrados en el estudio rechazaron una solicitud de comentarios de Insider.
Los hallazgos, dijo Woolridge, son «pequeños pasos» hacia el logro de la inteligencia artificial general. Esta la capacidad de las herramientas de IA para mostrar comportamientos humanos complejos como la conciencia. Aún así, dijo que «tenemos un largo, largo camino por recorrer» antes de que se alcance ese objetivo.
Después de todo, los avatares de IA en el estudio eran propensos a «alucinaciones», como no recordar ciertos eventos, lo que él atribuye a la manera en que se entrenó al modelo.
Si bien los investigadores concluyeron que sus agentes de IA mostraban comportamientos humanos emergentes, Woolridge dijo que «debemos ser escépticos» y «cuestionar» lo que la IA nos dice al pie de la letra.
AHORA LEE: Así es GPT-4, el nuevo modelo de inteligencia artificial de Open AI
TAMBIÉN LEE: China lanza propuesta para regular la inteligencia artificial generativa