• El investigador Roman Yampolskiy estima que hay 99.9% de posibilidades de que la IA conduzca a la extinción humana.
  • Dijo que hasta ahora ningún modelo de IA ha sido seguro y que es poco probable que los modelos futuros estén libres de errores.
  • Otros investigadores de IA han dicho que fueron más moderados en las estimaciones sobre la posibilidad de que la IA conduzca a la extinción.
  • ¡Nos vemos en TikTok!

El podcaster Lex Fridman dijo recientemente que la mayoría de los ingenieros de inteligencia artificial con los que habla estiman entre un 1 y 20% de posibilidades de que la inteligencia artificial general (AGI) acabe con la humanidad.

La predicción varía dependiendo de a quién le preguntes. Por ejemplo, un estudio reciente realizado con 2,700 investigadores de IA indicó que solo hay 5% de posibilidades de que esta tecnología conduzca a la extinción humana.

Pero Fridman dijo que es importante hablar con personas que estiman una probabilidad mucho mayor de que la inteligencia artificial pueda acabar con nosotros. Tal es el caso del investigador Roman Yampolskiy, quien le dijo al podcaster que la cifra crecerá a 99.9% dentro de los próximos 100 años.

Yampolskiy enseña informática en la Universidad de Louisville y acaba de publicar un libro llamado IA: inexplicable, impredecible, incontrolable.

Yampolskiy habló de los riesgos de la inteligencia artificial durante más de dos horas en el podcast de Fridman, y sus predicciones fueron bastante sombrías. Dijo que las posibilidades de que la IA acabe con la humanidad dependen de si los humanos pueden crear software altamente complejo sin errores en los próximos 100 años.

El ingeniero agregó que esto le parece poco probable, ya que ningún modelo de IA ha estado completamente a salvo de personas que intentan conseguir que haga algo para lo que no fue diseñada.

«Ya han cometido errores», dijo Yampolskiy. «Tuvieron accidentes, les hicieron jailbreak. No creo que exista un solo modelo de lenguaje grande al que alguien no haya obligado hacer algo que sus desarrolladores no pretendían que hiciera».

El complicado camino de la inteligencia artificial

Las primeras versiones de modelos de IA en los últimos dos años han generado varias señales de alerta por un posible uso indebido o desinformación.

Los deepfakes han creado imágenes pornográficas falsas de figuras públicas femeninas y amenazado con influir en las elecciones con llamadas de IA que imitan al presidente de Estados Unidos, Joe Biden.

AI Overviews, basado en el modelo Gemini de IA de Google, es el último lanzamiento de producto que no logró aterrizar como se esperaba. La nueva función de Búsqueda de Google estaba destinada a proporcionar resúmenes informativos rápidos generados con IA. En cambio, se volvió viral por dar respuestas sin sentido, como sugerir hacer pizza con pegamento o afirmar que ningún país de África comenzaba con la letra K.

Yampolskiy dijo que para controlar la IA, es necesario que haya una máquina de seguridad perpetua. El ingeniero dijo que incluso si hacemos un buen trabajo con las próximas versiones de GPT, la IA seguirá mejorando, aprendiendo, automodificándose e interactuando con diferentes jugadores. Y con riesgos existenciales «sólo tienes una oportunidad», afirma.

El CEO de OpenAI, Sam Altman, ha sugerido una «zona de pruebas regulatoria» donde las personas experimentan con la IA y la regulan en función de lo que «salió realmente mal» y lo que salió «realmente bien».

Altman advirtió en 2015, quizás en broma, que «lo más probable es que la IA conduzca al fin del mundo. Mientras tanto, habrá grandes empresas».

Más recientemente, Altman ha dicho que lo que lo mantiene despierto por la noche es «todas las cosas de ciencia ficción» relacionadas con la IA; incluidas aquellas que son «fáciles de imaginar y en las que las cosas realmente salen mal».

Las predicciones en torno al futuro de la humanidad con la inteligencia artificial suelen ser exageradamente pesimistas

Desde que ChatGPT se lanzó a finales de 2022, se han hecho varias predicciones sobre cómo la IA podría conducir a la caída de la humanidad.

Pero Yampolskiy también advirtió que «no podemos predecir lo que hará un sistema más inteligente». Comparó a los humanos con las ardillas en el contexto de la inteligencia artificial general, y dijo que a la IA se le ocurrirá algo que ni siquiera sabemos que existe todavía.

Según Yampolskiy, sin embargo, hay tres posibles de resultados. Un riesgo es que todos mueran; otro es que todos sufran y deseen estar muertos; y otro es que los humanos hayan perdido por completo su propósito.

Este último se refiere a un mundo en el que los sistemas de inteligencia artificial son más creativos que los humanos y pueden realizar todos los trabajos. En esa realidad, no está claro qué harían los humanos para contribuir, dijo Yampolskiy, haciéndose eco de algunas preocupaciones sobre si la IA comenzará a quitarle trabajos a humanos.

La mayoría de las personas en este campo reconocen cierto nivel de riesgo con la IA; sin embargo, no creen que sea tan probable que las cosas terminen mal. Elon Musk ha predicho que hay entre 10 y 20% de posibilidades de que la IA destruya a la humanidad.

El ex CEO de Google, Eric Schmidt, ha dicho que los peligros reales de la IA — que son los ataques cibernéticos y biológicos— llegarán en tres a cinco años.

Si la IA desarrolla el libre albedrío, Schmidt tiene una solución simple: los humanos pueden simplemente desconectarla.

AHORA LEE: Qué es la inteligencia artificial general y por qué estamos más cerca de conseguirla

TAMBIÉN LEE: El CEO de Nvidia, Jensen Huang, dice que los robots son la próxima ola de IA

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: