• Los desarrolladores de ChatGPT tienen una clara advertencia: la inteligencia artificial podría superar a los humanos en los próximos 10 años.
  • Los líderes del desarrollador de ChatGPT, OpenAI, dijeron que era necesario regular a la inteligencia artificial muy poderosa.
  • Los comentarios se producen a medida que los legisladores han aumentado los llamados para que la IA siga un conjunto de reglas.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Los creadores de ChatGPT dicen que la inteligencia artificial podría superar a la humanidad en la mayoría de los dominios en los próximos 10 años. Esto a medida que la «superinteligencia» se vuelve más poderosa que cualquier tecnología que el mundo haya visto.

Los cofundadores de OpenAI, incluido el CEO Sam Altman, dijeron en una publicación de blog que era concebible que la inteligencia artificial pudiera superar el «nivel de habilidad experto» de los humanos en la mayoría de las áreas. También dijeron que podría «llevar a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad».

«La superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado», dijeron los ejecutivos de OpenAI. «Podemos tener un futuro dramáticamente más próspero, pero tenemos que gestionar el riesgo para llegar allí».

Las preocupaciones en torno a la inteligencia artificial se hacen cada vez mayores

Desde el lanzamiento de ChatGPT, los líderes de la industria han emitido advertencias cada vez más serias sobre el potencial de una inteligencia artificial poderosa para afectar a la sociedad al desplazar puestos de trabajo y ayudar a alimentar una ola de desinformación y actividad delictiva.

En particular, las preocupaciones han aumentado a medida que el lanzamiento de herramientas de inteligencia artificial generativa como ChatGPT han impulsado una carrera armamentista que ha puesto a empresas como Microsoft y Google en competencia directa entre sí.

Las preocupaciones han llevado a que se regule la inteligencia artificial. Los líderes de OpenAI dijeron en la publicación del blog que «dada la posibilidad de un riesgo existencial», era necesario un enfoque proactivo para gestionar los daños potenciales de la tecnología.

“La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo”, dijeron. «También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales».

La semana pasada, Altman hizo su primera aparición ante el Congreso de Estados Unidos. En ella, abordó las preocupaciones de los legisladores sobre la falta de reglas para regir el desarrollo de la inteligencia artificial.

En la publicación, Altman y sus colegas sugirieron que eventualmente se necesitaría una organización como la Agencia Internacional de Energía Atómica para supervisar el avance de la inteligencia artificial «por encima de cierta capacidad», a través de medidas como auditorías y pruebas de cumplimiento de seguridad.

OpenAI no respondió de inmediato a la solicitud de comentarios de Insider realizada fuera del horario laboral normal.

AHORA LEE: Por qué las empresas deben adoptar la inteligencia artificial para sobrevivir, según el CEO de Platzi

TAMBIÉN LEE: Europol advierte sobre los riesgos que presenta ChatGPT para la ciberseguridad

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: