• 500 chatbots iniciaron sesión en una red social parecida a Twitter y discutieron las noticias del 1 de julio de 2020 mientras los científicos los estudiaban.
  • Los científicos utilizaron ChatGPT 3.5 para construir los bots  para analizar cómo hacer mejoras en una red social.
  • Otro de los objetivos es que las redes sociales puedan convertirse en sitios menos polarizados y agresivos.
  • ¡Estamos en Instagram! Síguenos.

En un día de julio de 2020, sin que nadie lo supiera, 500 chatbots de inteligencia artificial leyeron las noticias del 1 de julio de 2020.

Al mismo tiempo, ABC News informaba que estudiantes en Estados Unidos organizaban fiestas en medio de la pandemia de covid-19. En CNN, el presidente Donald Trump calificó a Black Lives Matter como un «símbolo de odio» y The New York Times tenía una historia sobre la cancelación de la temporada de béisbol debido a la pandemia.

Los 500 chatbots de inteligencia artificial iniciaron sesión en algo muy parecido (pero no totalmente) a Twitter y discutieron lo que habían leído. Mientras tanto, en nuestro mundo, el mundo verídico y real, un grupo de científicos estaba pendiente del proceso.

Los científicos utilizaron ChatGPT 3.5 para construir los bots con un propósito específico: estudiar cómo crear una mejor red social, menos polarizada y agresiva que nuestras plataformas actuales.

El modelo de red social en un laboratorio

Habían creado un modelo de una red social en un laboratorio; una especie de Twitter embotellado, con la esperanza de aprender cómo hacer mejoras en el Twitter del mundo real.

«¿Hay alguna manera de promover la interacción a través de la brecha partidista sin fomentar la toxicidad e incivilidad?», se preguntó Petter Törnberg, el científico informático que lideró el experimento.

Es difícil modelar algo como Twitter, o hacer experimentos de cualquier tipo de ciencia utilizando humanos reales. Las personas son difíciles de manejar y los costos iniciales para experimentación humana son considerablemente altos.

Los chatbots de inteligencia artificial, por otro lado, harán lo que les digas prácticamente gratis, además, su función principal es actuar como personas. Por lo tanto, los investigadores están comenzando a usar chatbots convirtiéndose en personas falsas, de las cuales pueden extraer datos sobre personas reales.

«Si quieres modelar el discurso público o la interacción, necesitas modelos más sofisticados de comportamiento humano», dice Törnberg, profesor asistente en el Instituto de Lógica, Lenguaje y Computación de la Universidad de Ámsterdam.

«Luego llegan los modelos de lenguaje grandes, y son precisamente eso, un modelo de una persona que tiene una conversación», mencionó el experto.

Al reemplazar a las personas como sujetos en experimentos científicos, la Inteligencia Artificial podría acelerar nuestra comprensión del comportamiento humano en una amplia gama de campos, desde la salud pública y la epidemiología, hasta la economía y la sociología, resulta que la inteligencia artificial podría ofrecernos una inteligencia real sobre nosotros mismos.

Estudiar al humano era el objetivo

Törnberg no es el primero en construir una red social en un laboratorio.

En 2006, en una obra pionera de lo que se conocería como «ciencia social computacional», investigadores de la Universidad de Columbia construyeron toda una red social para estudiar cómo 14,000 usuarios humanos compartían y calificaban la música.

La idea de poblar redes sociales ficticias con proxies digitales se remonta aún más atrás. Dadas solo algunas reglas simples, no mucho más complicadas que un juego de mesa, los primeros «agentes» creados por científicos mostraron comportamientos realistas.

Hoy en día, los los chatbots basados en agentes pueden utilizarse incluso desde la economía hasta la epidemiología. En julio de 2020, Facebook introdujo una simulación cerrada de sí misma, poblada por millones de bots de IA, para estudiar los comportamientos tóxicos de las personas en línea.

Pero el trabajo de Törnberg podría acelerar el proceso; ya que su equipo creó cientos de personalidades para sus chatbots de Twitter, diciéndole a cada uno frases como «eres un hombre de ingresos medios, evangélico protestante que ama a los republicanos, a Donald Trump, a la NRA y a los fundamentalistas cristianos». Incluso asignaron equipos de fútbol favoritos a los bots.

Repite estas asignaciones de antecedentes 499 veces, variando las personalidades, según la vasta encuesta de Estudios Nacionales de Elecciones Políticas de América y tienes una base de usuarios instantánea.

¿Cuáles son los modelos que los científicos crearon?

Luego, el equipo ideó tres variaciones de cómo una plataforma similar a Twitter decide qué publicaciones destacar. El primer modelo era esencialmente una cámara de resonancia: la IA se insertó en redes pobladas principalmente por bots que compartían sus creencias asignadas.

El segundo modelo era un clásico descubrimiento: estaba diseñado para mostrar a los bots publicaciones que les gustaban a la mayor cantidad de otros bots, independientemente de la preferencia política.

El tercer modelo fue el foco del experimento, usando un «algoritmo de conexión», mostraría a los chatbots de inteligencia artificial publicaciones que recibieron más me gusta de bots del partido político opuesto. Entonces, un chatbot demócrata vería lo que les gustaba a los bots republicanos, y viceversa. Es matar dos pájaros de un tiro, tal cual.

A todos los bots se les dieron titulares y resúmenes de las noticias del 1 de julio de 2020. Luego los soltaron para experimentar con los tres modelos similares a Twitter, mientras los investigadores observaban con sus libretas y tomaban notas sobre cómo se comportaban.

Cómo reaccionan los modelos de bots en Twitter

El «Twitter de Cámara de Resonancia», como se le llamaba al modelo, fue previsiblemente agradable; todos los bots estuvieron de acuerdo entre sí. Rara vez se escuchaba una palabra desalentadora, o cualquier palabra, en realidad.

Hubo muy poca toxicidad, pero también muy pocos comentarios o me gusta en publicaciones de bots con una afiliación política opuesta. Todos fueron amables porque estaban interactuando con contenido con el que estaban de acuerdo.

El «Twitter de Descubrimiento», el segundo modelo, se convirtió también en una buena simulación de lo negativas que resultan otras personas; era como estar en Twitter.

«Emma, simplemente no lo entiendes, ¿verdad? Terry Crews tiene todo el derecho de expresar su opinión sobre Black Lives Matter sin ser atacado», le respondió un bot a una mujer.

El «Twitter de Conexión» parecía ser la respuesta. Promovía interacción, pero no era una interacción moderada. Había un índice elevado de comentarios en las publicaciones sobre los partidos políticos que comentarios de usuarios de la misma afiliación política.

Por ejemplo, todos los bots manifestaron felicidad al enterarse de que la música country se estaba volviendo más receptiva a la inclusión LGBTQ+. Encontrar puntos en común llevó a que más terreno se volviera común.

«Al menos en la simulación, obtenemos este resultado positivo. Obtenemos una interacción positiva que atraviesa la brecha partidista», dijo Törnberg.

El experto sugiere que podría ser posible construir una red social que fomente una participación profunda, y por lo tanto, beneficiosa, sin permitir que los usuarios sean abusivos entre ellos.

«Si las personas interactúan en un tema que atraviesa la brecha partidista, donde 50% de las personas con las que estás de acuerdo votan por un partido diferente al tuyo, eso reduce la polarización. Tu identidad partidista no se activa», afirma Törnberg.

El modelo de Törnberg para asegurar datos

Entonces, ¿problema resuelto? ¡No más gritos, insultos y humillaciones públicas en las redes sociales! ¿Todo lo que necesitamos hacer es copiar el algoritmo que Törnberg utilizó, no es así?

Bueno, tal vez. Pero antes de empezar a copiar lo que hicieron una gran cantidad de chatbots de inteligencia artificial en una botella de Twitter, los científicos necesitan saber si esos bots se comportan más o menos como lo harían las personas en la misma situación. La IA tiende a inventar hechos y regurgitar sin sentido la sintaxis y gramática que ingiere de sus datos de entrenamiento. Si los bots hacen eso en un experimento, los resultados no serán útiles.

«Esta es la pregunta clave. Estamos desarrollando un nuevo método y un nuevo enfoque que es cualitativamente diferente a cómo hemos estudiado los sistemas antes. ¿Cómo lo validamos?», cuestiona el experto.

También tiene algunas ideas. Un modelo de lenguaje grande de código abierto con datos de entrenamiento transparentes, diseñado expresamente para la investigación, sería de ayuda. De esa manera, los científicos sabrían cuándo los bots simplemente están repitiendo lo que se les enseñó.

Törnberg también teoriza que podrías proporcionar a una población de bots toda la información que algún grupo de humanos tenía en 2015. Luego, si giraras los minuteros de la máquina del tiempo cinco años hacia adelante, podrías verificar si los bots reaccionan a 2020 de la misma manera que lo hicimos todos.

Las señales tempranas son positivas

Los modelos de lenguaje grandes entrenados con perfiles sociodemográficos e identidades específicas muestran lo que Lisa Argyle, una científica política de la Universidad Brigham Young, llama fidelidad algorítmica.

Cuando se genere una pregunta de encuesta, responderán de manera casi igual que los grupos de humanos en los que se basaron, ya que el lenguaje codifica mucho conocimiento del mundo real. Los modelos de lenguaje grandes pueden crear relaciones espaciales y temporales no explícitas en los textos de entrenamiento.

Un investigador descubrió que también pueden interpretar información social latente como leyes económicas, heurísticas de toma de decisiones y preferencias sociales comunes, lo que los hace lo suficientemente inteligentes como para estudiar economía.

(Lo que podría decir más sobre la inteligencia relativa de los economistas que sobre los modelos de lenguaje grandes, pero lo que sea.)

El potencial más intrigante para usar bots de IA en lugar de sujetos humanos en la investigación científica yace en Smallville, un pueblo similar a «SimCity» con casas, tiendas, parques y una cafetería, poblado por 25 bots.

El videojuego que reúne a los bots

Al igual que los participantes de la red social de Törnberg, todos tienen personalidades y características sociodemográficas definidas por indicaciones de lenguaje.

Tomaron prestada la estrategia del mundo de los videojuegos, muchos residentes de Smallville tienen lo que podríamos llamar deseos, metas y objetivos programados.

Joon Sung Park, el científico informático de la Universidad de Stanford que creó Smallville, ha ido aún más lejos. A sus creaciones bitmapeadas, les otorgó algo que otros modelos de lenguaje grandes no poseen: memoria.

«Si piensas en cómo se comportan los humanos, mantenemos algo muy consistente y coherente acerca de nosotros mismos, en este tiempo y en este mundo. Eso no es algo que un modelo de lenguaje pueda proporcionar», afirmó Park.

Entonces, Park ha dado acceso a sus «modelos generativos» a bases de datos que ha llenado con relatos de cosas que supuestamente han visto y hecho. Los bots saben cuán reciente fue cada evento y cuán relevantes son para sus metas preestablecidas y su personalidad. Nosotros lo llamaríamos memoria a largo y corto plazo.

Durante los últimos cinco meses, Park ha estado trabajando en cómo desplegar sus bots para la investigación en ciencias sociales. Al igual que Törnberg, aún no está seguro de cómo validarlos. Pero ya se comportan de maneras sorprendentemente realistas. Los chatbots de inteligencia artificial pueden formular planes y llevarlos a cabo. Recuerdan sus relaciones entre sí y cómo esas relaciones han cambiado con el tiempo.

Modelos de inteligencia artificial que son casi idénticos a los humanos

El dueño de la cafetería de Smallville organizó una fiesta de San Valentín, y uno de los bots invitó a otro bot que se suponía le atraía.

Las cosas se vuelven complicadas en Smallville cuando los bots intentan y fallan en recordar los datos; pero los habitantes de Smallville muestran algunas propiedades emergentes. Al decidir dónde almorzar, muchos eligieron inicialmente la cafetería», encontró el equipo de Park.

«Sin embargo, a medida que algunos agentes aprendieron sobre un bar cercano, optaron por ir allí en su lugar», mencionó el experto.

Cuanto más actúan los bots como lo haría un humano, más podemos aprender sobre nosotros mismos al experimentar con ellos. Y esto genera otro problema, y es que la ética de jugar con estos simulacros digitales en un laboratorio es todavía territorio inexplorado.

Serán construidos a partir de nuestros recuerdos escritos, nuestras fotografías, nuestra información digital, tal vez incluso nuestros registros médicos y financieros.

«El lío se volverá aún más caótico a medida que el modelo se vuelva más sofisticado; al usar datos de redes sociales y hacer predicciones basadas en eso, podríamos potencialmente pedirle al modelo cosas muy personales que no quisieras compartir. Aunque no se sabe cuán precisas serán las respuestas, es posible que sean bastante predictivas», expresó Törnberg.

¿Los bots pueden conocer tus secretos más profundos?

En otras palabras, un bot basado en tus datos podría inferir tus secretos reales y verdaderos, pero no tendría razón para mantenerlos en secreto.

Pero si eso es cierto, ¿los investigadores tienen obligaciones financieras o éticas con la persona en la que se basa su modelo? ¿Esa persona necesita dar su consentimiento para que su bot participe en un estudio? ¿Y el bot?

Esto no es hipotético. Park ha entrenado a uno de sus bots de Smallville con todos sus datos personales y recuerdos.

«El agente básicamente se comportaría como yo. Científicamente, creo que es interesante», expresó el científico.

De manera ética, es un campo minado de potencial

A largo plazo, el futuro de la investigación científica puede depender de cómo se resuelvan tales problemas. Törnberg tiene algunas ideas para mejorar la fidelidad de sus simulaciones a la realidad.

Su simulación de Twitter solo duró seis horas; tal vez dejarla correr durante meses, o incluso años, mostraría cómo evoluciona la polarización con el tiempo; incluso podría utilizar datos de encuestas más detallados para construir bots con características humanas y hacer que el modelo responda de manera más dinámica cuando los bots hacen clic e interactúan.

El problema de agregar más detalles es que va en contra de todo el propósito de un modelo. Los científicos crean experimentos para que sean más simples que la realidad, para explicar las complicaciones de la vida real.

Al reemplazar a los humanos como si fueran réplicas de inteligencia artificial, Törnberg puede haber resuelto involuntariamente un problema aún más grande en la sociedad. Si los chatbots de inteligencia artificial pueden publicar en las redes sociales con todo el sonido y la furia de los humanos reales, tal vez el futuro realmente no necesite a los humanos reales y finalmente podamos cerrar sesión.

AHORA LEE: Waze lanza nueva función de seguridad con inteligencia artificial

TAMBIÉN LEE: Empresa mexicana crea modelo de inteligencia artificial para apoyar al sector salud

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: