• Los pesimistas quieren que todos creamos que podría ocurrir una rebelión de la inteligencia artificial, pero los pioneros de la industria están en desacuerdo.
  • Muchos están restando importancia a los supuestos riesgos existenciales de la IA, calificándolos de ser una distracción.
  • Ellos argumentan que las grandes empresas tecnológicas están utilizando los temores para proteger sus propios intereses.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Has oído hablar mucho sobre cómo la inteligencia artificial podría acabar con la humanidad.

Desde los padrinos de la tecnología hasta los principales CEO de compañías especializadas en ella, ha habido una avalancha aparentemente interminable de advertencias sobre cómo la inteligencia artificial será nuestro enemiga.

Aquí está la cuestión: no solo es improbable una rebelión de la inteligencia artificial, sino que la idea de una se está utilizando convenientemente para distraerte de cuestiones más urgentes. Esto según numerosos pioneros de la IA que se han pronunciado recientemente.

Dos expertos han descartado las preocupaciones como distracciones, señalando a las empresas tecnológicas que intentan proteger sus propios intereses.

La verdad detrás del miedo a la inteligencia artificial

Yann LeCun, científico jefe de inteligencia artificial de Meta, acusó a algunos de los fundadores más destacados de la IA de «infundir miedo» y hacer «cabildeo corporativo masivo», para servir a sus propios intereses. LeCun, quien también es padrino de la IA, dijo que gran parte de la retórica apocalíptica giraba en torno a mantener el control de la tecnología en manos de unos pocos.

«Altman, Hassabis y Amodei son los que están haciendo un cabildeo corporativo masivo en este momento», escribió LeCun. «Ellos son los que están intentando realizar una captura regulatoria de la industria de la IA».

Demis Hassabis, de Google DeepMind, dijo a CNBC que no estaba de acuerdo con muchos de los comentarios de LeCun. Hassabis agregó que era importante iniciar temprano la conversación sobre la regulación de la superinteligencia.

Los representantes de Sam Altman de OpenAI y Dario Amodei de Anthropic no respondieron de inmediato a la solicitud de comentarios de Insider.

Andrew Ng, profesor adjunto de la Universidad de Stanford y cofundador de Google Brain, adoptó una opinión similar durante el fin de semana.

Le dijo al Australian Financial Review que algunas empresas utilizan los temores en torno a la IA para afirmar su propio dominio en el mercado.

El medio informó que dijo que algunas grandes empresas de tecnología no querían competir con alternativas de código abierto y esperaban aplastar la competencia con una regulación estricta provocada por los temores a la IA.

Diversos expertos en inteligencia artificial cuestionan los riesgos más descabellados de la tecnología

Varios expertos en inteligencia artificial han cuestionado durante mucho tiempo algunas de las advertencias más descabelladas.

No ha ayudado que las declaraciones emitidas por varios centros (y respaldadas por destacados líderes de IA) hayan sido notablemente vagas. Esto ha dejado a muchos batallando por dar sentido a las dramáticas afirmaciones.

Una declaración de 23 palabras respaldada por los CEO de OpenAI, DeepMind y Anthropic trazó un vínculo en gran medida inexplicable entre el auge de la inteligencia artificial avanzada y las amenazas a la existencia humana como la guerra nuclear y las pandemias.

El momento de la reacción, antes de la cumbre sobre seguridad de la inteligencia artificial en Reino Unido y tras la reciente orden ejecutiva de Biden sobre la tecnología, también es significativo.

El miedo a la inteligencia artificial está teniendo prioridad sobre peligros más reales

Cada vez más expertos advierten que la preocupación de los gobiernos por los riesgos existenciales de la IA está teniendo prioridad sobre amenazas más inmediatas.

Aidan Gómez —autor de un artículo de investigación que ayudó a crear la tecnología detrás de los chatbots— dijo a The Guardian que si bien las amenazas más existenciales que plantea la inteligencia artificial deberían «estudiarse y perseguirse», representan una «amenaza real para la conversación pública».

«Creo que en términos de riesgo existencial y política pública, no es una conversación productiva», dijo. «En cuanto a las políticas públicas y dónde deberíamos centrarnos en el sector público —o tratar de mitigar el riesgo para la población civil— creo que constituye una distracción, lejos de riesgos que son mucho más tangibles e inmediatos».

Merve Hickok, presidenta del Centro de IA y Política Digital, expresó preocupaciones similares sobre el énfasis de la cumbre de seguridad de IA del Reino Unido en el riesgo existencial.

Hickok dijo a Insider que si bien el evento «nació inicialmente de un compromiso de promover los valores democráticos», ahora tiene un «enfoque limitado en la seguridad y el riesgo existencial». Esto corre el riesgo de dejar de lado otras preocupaciones apremiantes para la sociedad civil.

En una carta dirigida al Primer Ministro del Reino Unido, Rishi Sunak, el Centro alentó al gobierno británico a incluir temas más apremiantes «como la parcialidad, la equidad, la equidad y la rendición de cuentas» en la agenda de la reunión.

AHORA LEE: Reino Unido publica la ‘Declaración Bletchley’ sobre seguridad de la inteligencia artificial

TAMBIÉN LEE: El foro de seguridad de inteligencia artificial respaldado por OpenAI, Microsoft y Google nombra a su primer director

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: