• El cofundador de Google Brain, Andrew Ng, cree que la IA y las armas nucleares nunca deberían compararse.
  • Ng se refería a una declaración del Centro para la Seguridad de la IA que vinculaba a los dos.
  • Ng dijo al Financial Times que la declaración era "desafortunada" y había confundido a los reguladores de la IA.
  • ¡Nos vemos en TikTok!

El cofundador de Google Brain, Andrew Ng, no está de acuerdo con los que ven el apocalipsis en la IA y dicen su poder destructivo es comparable con el de las armas nucleares.

En una entrevista con el Financial Times, Ng dijo que no entendía por qué se hacía una comparación entre los riesgos de las armas nucleares y los de la Inteligencia Artficial.

«No veo ninguna razón para hacer una analogía entre la IA y las armas nucleares. Es una analogía demencial. Una aporta más inteligencia y ayuda a tomar mejores decisiones, y la otra hace volar ciudades. ¿Qué tienen que ver estas dos cosas entre sí?» le dijo al Financial Times.

Ng se refería a una declaración emitida por el Centro para la Seguridad de la IA en mayo que comparaba los riesgos que plantea la IA con la guerra nuclear y las pandemias. La declaración fue muy publicitada en ese momento y respaldada por los principales fundadores de IA, incluido el director ejecutivo de OpenAI, Sam Altman.

Ng calificó la declaración como «desafortunada» y dijo que el mensaje engañoso había distorsionado «el pensamiento entre los reguladores de la IA».

Otros, incluido el escéptico multimillonario de la IA, Elon Musk, vinculó el uso de armas nucleares con la IA. En 2018 la tecnología era más peligrosa que las armas nucleares.

Los temores que se propagan sobre la inteligencia artificial

Ng ha criticado a las personas que anteriormente habían promovido temores existenciales sobre la IA. El cofundador de Google, Brian, sugirió anteriormente que las grandes empresas tecnológicas estaban inflando los temores sobre los riesgos de la IA porque querían dominar el mercado.

Ng dijo a The Australian Financial Review en octubre que las empresas esperaban activar una regulación estricta promoviendo la «mala idea de que la IA podría extinguirnos».

Los representantes de Ng no respondieron de inmediato a la solicitud de comentarios de Business Insider, realizada fuera del horario laboral normal.

AHORA LEE: Por qué la IA puede poner en peligro a la humanidad en cinco años, según advierte el ex CEO de Google

TAMBIÉN LEE: Las declaraciones de Marissa Mayer para 2024 sobre su emoción por ver cómo crecerá la inteligencia artificial

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: