• Incluso al CEO de OpenAI, creador de ChatGPT, le preocupa la influencia de la inteligencia artificial en las elecciones estadounidenses de 2024.
  • Sam Altman compareció ante el Congreso el martes para testificar sobre los riesgos sociales de la IA.
  • Prepárate para la “desinformación interactiva uno a uno”.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Aquí hay un futuro no muy lejano que vale la pena considerar: cuando Joe Biden se enfrente a Donald Trump, Ron DeSantis, Nikki Haley u otro candidato republicano en las elecciones presidenciales de Estados Unidos de 2024, ¿qué tan seguros podemos estar de que todo el proceso no estará plagado de desinformación turboalimentada por inteligencia artificial?

No mucho.

Eso quedó claro cuando Sam Altman, CEO de OpenAI —creador de ChatGPT— hizo su primera aparición ante el Congreso este martes para discutir los riesgos potenciales de la inteligencia artificial.

“Este es un momento extraordinario para trabajar en inteligencia artificial”, dijo Altman al Congreso. “Pero a medida que avanza esta tecnología, entendemos que las personas están ansiosas acerca de cómo podría cambiar la forma en que vivimos. Nosotros también lo estamos”.

Gary Marcus, especialista en aprendizaje automático y profesor emérito de psicología y ciencias neuronales en la Universidad de Nueva York, fue directo durante su propio testimonio sobre cómo podrían ser algunos de esos cambios.

“Fundamentalmente, estos nuevos sistemas serán desestabilizadores”, dijo a los legisladores. “Pueden y crearán mentiras persuasivas a una escala nunca antes vista por la humanidad. Los de afuera los usarán para afectar nuestras elecciones; los de adentro para manipular nuestros mercados y nuestros sistemas políticos. La democracia misma está amenazada”.

La devastación causada por las redes sociales en la historia política reciente de Estados Unidos podría parecer un juego de niños en comparación con la inteligencia artificial.

Bienvenidos a la era de la desinformación personalizada

Ya hay señales de que la inteligencia artificial podría influir en los votantes indecisos.

Los grandes modelos de lenguaje que sustentan los chatbots como ChatGPT pueden predecir la opinión pública con notable precisión cuando se alimentan con dietas de medios específicas, según un artículo de investigadores de Google, MIT y Harvard citado por el senador Josh Hawley el martes.

En el contexto de una elección, esto podría conducir a situaciones en las que las empresas, el gobierno o las entidades extranjeras tomen estas predicciones precisas sobre la opinión pública y las utilicen para “afinar estrategias” que influyan en la manera en que actúa un votante, dijo Hawley.

Hawley aseguró que incluso la tecnología “tan prosaica como la búsqueda de Google” puede influir en los votantes indecisos que intentan obtener información en los últimos días de una elección, lo que describió como el “enorme efecto” en la clasificación de los artículos de búsqueda de Google.

“Esto, por supuesto, es órdenes de magnitud mucho más poderosas, mucho más significativas”, agregó.

Los chatbots pueden tener demasiada influencia en los votantes

Altman reconoció que “la capacidad más general de estos modelos para manipular, persuadir, proporcionar desinformación interactiva uno a uno” es una de sus áreas de mayor preocupación.

Quizás lo más preocupante es que los chatbots pueden tener el poder de cambiar las creencias políticas de las personas por completo si son manipulados para brindarles información falsa.

Gary Marcus citó un artículo reciente publicado por el Wall Street Journal titulado “¡Ayuda! ¡Mis creencias políticas fueron alteradas por un chatbot!”, que detalla cómo las personas “pueden ni siquiera saber que están siendo influenciadas”.

Y el presidente del subcomité, el senador Richard Blumenthal, demostró al comienzo de la audiencia lo fácil que puede ser adormecer a los votantes con una falsa sensación de seguridad. Reprodujo un clip de audio que sonaba igual que él, pero era solo una inteligencia artificial entrenada en sus discursos.

Incluso Altman cree que la inteligencia artificial volverá estúpidos a los humanos

Por ahora, dijo Altman, los humanos entienden que la inteligencia artificial está en su infancia y son conscientes de que bots como ChatGPT cometen errores de forma rutinaria.

De lo que no está tan seguro es de que los usuarios seguirán comprobando las respuestas de ChatGPT a medida que mejore su modelo subyacente.

“Me preocupa que, a medida que los modelos mejoran cada vez más, los usuarios pueden tener cada vez menos su propio proceso de pensamiento discriminatorio”, dijo Altman.

En otras palabras, una inteligencia artificial poderosa pero imperfecta alentará a los humanos perezosos a subcontratar su propio pensamiento crítico, a expensas de la verdad y la democracia.

En escenarios tensos, como una elección presidencial, el margen de error es cero.

Altman correctamente (y con interés propio) pidió durante la sesión que se regulara la inteligencia artificial. También sugirió que el contenido generado por la tecnología esté claramente etiquetado.

Esto solo funcionaría si se toman medidas rápidas. Marcus señaló acertadamente que “actuamos con demasiada lentitud con las redes sociales” en elecciones anteriores. La misma lentitud simplemente no funcionará en un mundo que se postula para adoptar ChatGPT.

AHORA LEE: Europol advierte sobre los riesgos que presenta ChatGPT para la ciberseguridad

TAMBIÉN LEE: Casi 70% de las personas que usan ChatGPT en el trabajo no se lo han dicho a sus jefes, revela encuesta

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: