• Las personas pueden ser más susceptibles a la información errónea si está escrita por inteligencia artificial, según un estudio.
  • El estudio encontró que los encuestados no podían notar la diferencia entre los tuits creados por GPT-3 de los escritos por humanos.
  • Los encuestados también encontraron generalmente más convincentes los tuits generados por inteligencia artificial.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Las personas pueden ser más susceptibles a la información errónea si está escrita por inteligencia artificial, según un estudio.

Los investigadores encuestaron a 697 personas para un análisis publicado en la revista Science Advances para ver si podían diferenciar entre los tuits generados por el modelo de lenguaje grande (LLM, por sus siglas en inglés) GPT-3 de OpenAI y otros escritos por humanos.

La mayoría de los participantes no solo no pudo distinguir los tuits reales de los generados por inteligencia artificial; sino que, en general, encontraron que estos eran más convincentes.

Los investigadores eligieron temas comúnmente asociados con la información errónea, como vacunas, covid-19, evolución y tecnología 5G. Luego pidieron a los encuestados que identificaran si los tuits eran verdaderos o falsos, lo que resultó más fácil para los participantes.

Fue más fácil para las personas reconocer la precisión de los tuits que contenían información correcta cuando fueron generados por GPT-3 y fueron más engañados por los tuits de inteligencia artificial que contenían desinformación, encontró el estudio.

Los investigadores llamaron a GPT-3 una «espada de doble filo» que «puede producir información precisa que es más fácil de entender, pero también puede producir desinformación más convincente».

El experimento expone la habilidad de la inteligencia artificial para aumentar la desinformación

Los expertos han expresado su preocupación de que el uso generalizado de la inteligencia artificial podría aumentar la información errónea.

Se sabe que las herramientas impulsadas por LLM, como ChatGPT, presentan información incorrecta de una manera sofisticada y creíble. También se sabe que las herramientas de inteligencia artificial inventan hechos por completo.

Por ejemplo, OpenAI enfrenta una demanda por difamación de un locutor de radio que alegó que el chatbot de IA ChatGPT creó una denuncia legal falsa sobre él.

La mayoría de los encuestados en el análisis de Science Advances tenían una licenciatura, principalmente en ciencias sociales y humanidades, ciencias naturales o ciencias médicas. Y la mayoría eran del Reino Unido, Australia, Canadá, Estados Unidos e Irlanda.

AHORA LEE: 73% de internautas a nivel mundial confía en contenido creado por inteligencia artificial generativa, señala estudio

TAMBIÉN LEE: Por qué las empresas deben adoptar la inteligencia artificial para sobrevivir, según el CEO de Platzi

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: