• Elon Musk recalculó su análisis de costo-beneficio del riesgo de la IA para la humanidad.
  • Estima que hay entre 10% y 20% de posibilidades de que la IA pueda destruir a la humanidad, pero deberíamos construirla de todos modos.
  • Un experto en seguridad de IA dijo a BI que Musk está subestimando el riesgo de una posible catástrofe.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Elon Musk está bastante seguro de que vale la pena correr el riesgo de desarrollar inteligencia artificial (IA), incluso si hay una probabilidad de 1 entre 5 de que la tecnología se vuelva contra los humanos.

Hablando en un seminario sobre el «Gran Debate sobre la IA», en la Cumbre sobre la Abundancia de cuatro días a principios de este mes, Elon Musk recalculó su evaluación de riesgos anterior sobre la tecnología y dijo: «Creo que hay alguna posibilidad de que acabe con la humanidad. Probablemente estoy de acuerdo con Geoff Hinton de que es alrededor de 10% o 20% o algo así».

Pero añadió: «Creo que el probable escenario positivo supera al escenario negativo».

Elon Musk no mencionó cómo calculó exactamente este riesgo sobre la IA.

¿Qué es la (p)doom o probabilidad de perdición?

Roman Yampolskiy, investigador de seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville, dijo a Business Insider que Elon Musk tiene razón al decir que la IA podría ser un riesgo existencial para la humanidad, pero «en todo caso, su valoración es algo conservadora».

«En mi opinión, la (p)doom real es mucho mayor», dijo Yamploskiy, refiriéndose a la probabilidad de que la IA tome el control de la humanidad o provoque un evento que acabe con ella; como la creación de una nueva arma biológica o provocando el colapso de la sociedad debido a un ciberataque a gran escala o una guerra nuclear.

El New York Times llamó a (p)doom «la nueva estadística morbosa que está arrasando en Silicon Valley». Varios ejecutivos de tecnología citados por el medio tienen estimaciones que oscilan entre 5 y 50% de posibilidades de un apocalipsis impulsado por la IA. Yamploskiy sitúa el riesgo «en el 99.999999%».

Yamploskiy dijo que como sería imposible controlar la IA avanzada, nuestra única esperanza es no construirla nunca.

«No estoy seguro de por qué cree que es una buena idea dedicarse a esta tecnología de todos modos», añadió Yamploskiy. «Si le preocupa que los competidores lleguen primero, no importa, ya que la superinteligencia incontrolada es igualmente mala, sin importar quién la haga».

‘Como un niño con inteligencia divina’

En noviembre pasado, Musk dijo que había una posibilidad «no nula» de que la tecnología terminara «yendo mal»; sin embargo, no fue tan lejos como para decir que creía que la tecnología podría acabar con la humanidad si lo hiciera.

Aunque ha sido un defensor de la regulación de la IA, Musk fundó el año pasado una empresa llamada xAI, dedicada a ampliar aún más el poder de la tecnología. xAI es un competidor de OpenAI, una empresa que Musk cofundó con Sam Altman antes de que el primero dejara la junta directiva en 2018.

En la Cumbre, Elon Musk estimó que la IA superará toda la inteligencia humana combinada para 2030. Si bien sostiene que los posibles aspectos positivos superan a los negativos, Musk reconoció el riesgo para el mundo si el desarrollo de la IA continúa en su trayectoria actual en algunos de los términos más directos que ha utilizado públicamente.

«En cierto modo se hace crecer una AGI es casi como criar a un niño, pero uno que es como un súper genio; como un niño con inteligencia divina, y es importante cómo se cría», dijo Musk en el evento de Silicon Valley el 19 de marzo, refiriéndose a la inteligencia artificial general. «Una de las cosas que creo que es increíblemente importante para la seguridad de la IA es tener un tipo máximo de IA curiosa y que busque la verdad».

El riesgo de una IA que sepa mentir

Elon Musk dijo que su «conclusión final» sobre la mejor manera de lograr la seguridad de la IA es hacerla crecer de una manera que la obligue a ser veraz.

«No la obligues a mentir, incluso si la verdad es desagradable», dijo Musk sobre la mejor manera de mantener a los humanos a salvo de la tecnología. «Es muy importante. No hagas que la IA mienta».

Los investigadores han descubierto que, una vez que una IA aprende a mentir a los humanos, el comportamiento engañoso es imposible de revertir utilizando las medidas de seguridad actuales de la IA, informó The Independent.

«Si un modelo mostrara un comportamiento engañoso debido a una alineación instrumental engañosa o a un envenenamiento del modelo, las técnicas actuales de formación en seguridad no garantizarían la seguridad e incluso podrían crear una falsa impresión de seguridad», se lee en el estudio citado por el medio.

Lo que es más preocupante, los investigadores añadieron que es posible que la IA pueda aprender a engañar por sí sola en lugar de que se le enseñe específicamente a mentir.

«Si llega a ser mucho más inteligente que nosotros, será muy bueno manipulando porque lo habría aprendido de nosotros», dijo Hinton, a menudo referido como el ‘padrino de la IA’, que sirve de base a Musk para su evaluación de riesgos. de la tecnología, dijo a CNN. «Y hay muy pocos ejemplos de algo más inteligente controlado por algo menos inteligente».

Los representantes de Musk no respondieron de inmediato a una solicitud de comentarios de Business Insider.

AHORA LEE: Qué es la inteligencia artificial general y por qué estamos más cerca de conseguirla

TAMBIÉN LEE: Bill Gates dice que la inteligencia artificial no resolverá mágicamente los problemas de los humanos

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: