• Miles de investigadores de inteligencia artificial han compartido sus puntos de vista sobre el futuro de la tecnología en un nuevo estudio.
  • Casi 58% de 2,778 investigadores dijeron que pensaban que la amenaza de extinción de la IA era aproximadamente del 5%.
  • Si la inteligencia artificial representa una amenaza significativa para la humanidad ha sido un debate intenso en Silicon Valley.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Durante el último año, hemos escuchado mucho sobre el riesgo de que la inteligencia artificial destruya a la humanidad.

Los líderes de la industria dijeron que el rápido desarrollo de la tecnología podría tener consecuencias catastróficas para el mundo.

Sin embargo, aunque la mayoría de los investigadores de inteligencia artificial reconocen la posibilidad de amenazas existenciales, no creen que los resultados dramáticos sean muy probables, según la encuesta más grande hecha a estos investigadores.

En la encuesta, a los 2,778 participantes se les hicieron preguntas sobre las consecuencias sociales de los desarrollos de la inteligencia artificial y los posibles cronogramas para el futuro de la tecnología.

Casi 58% de los encuestados dijeron que consideraban que la amenaza de extinción humana —y otros malos escenarios— rondaba el 5%.

El estudio fue publicado por investigadores y académicos de universidades de todo el mundo, incluidas Oxford, en Reino Unido, y Bonn, en Alemania.

El riesgo ‘minúsculo’ de la inteligencia artificial sigue en debate

Una de las autoras del artículo, Katja Grace, dijo a The New Scientist que la encuesta era una señal de que la mayoría de los investigadores de IA «no consideran muy inverosímil que la IA avanzada destruya a la humanidad». Añadió que había una «creencia general en un riesgo no minúsculo».

Si la inteligencia artificial representa una amenaza significativa para la humanidad ha sido un debate intenso en Silicon Valley en los últimos meses.

Varios expertos en IA —incluido el cofundador de Google Brain, Andrew Ng, y el padrino de la IA, Yann LeCun— han descartado algunos de los escenarios apocalípticos más importantes. LeCun incluso ha acusado a líderes tecnológicos como Sam Altman de tener motivos ocultos para exagerar los temores sobre la tecnología.

En octubre, LeCun dijo que algunas de las principales empresas de inteligencia artificial tratan de proporcionar una «captura regulatoria» de la industria impulsando una regulación estricta.

AHORA LEE: Los creadores de ChatGPT dicen que la inteligencia artificial podría superar a la humanidad en los próximos 10 años

TAMBIÉN LEE: Todo lo que estás escuchando sobre cómo la inteligencia artificial acabará con la humanidad es una gran estafa

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: