• El investigador de aprendizaje automático Jan Leike y el científico Ilya Sutskever acaban de renunciar de OpenAI.
  • En esencia, el trabajo de su equipo era asegurarse de que la inteligencia artificial pudiera alinearse a la capacidad humana.
  • El problema es que, si eso sucede, los humanos no podrán supervisar de manera confiable sistemas de inteligencia artificial.
  • ¿Ya conoces nuestra cuenta de Threads? Síguenos.

Es demasiado pronto para saber qué es lo que sucede en OpenAI y qué pasará ahora que sus directivos están renunciando; o si Sam Altman planea reemplazar las vacantes. Sin embargo, se puede decir que esta no es la mejor temporada para quienes han predicho lo peligroso del alcance de esta tecnología.

Uno de los directivos, Ilya Sutskever, el científico jefe de la compañía, dijo en X el martes que «tomó la decisión de dejar OpenAI».

Sutskever calificó como «un honor y un privilegio haber trabajado juntos», refiriéndose a Altman y su equipo. Se retiró del puesto y dijo que está «seguro de que OpenAI construirá una AGI (inteligencia artificial general, por sus siglas en inglés) que sea segura y beneficiosa».

La inteligencia artificial siempre puede ser más inteligente

La salida más abrupta fue la de Jan Leike, otro de los altos directivos de OpenAI. El martes por la noche, Leike publicó una contundente confirmación de dos palabras de su salida de OpenAI en X: «I quit» (renuncié).

Leike y Sutskever lideraron el equipo la «superalineación» de OpenAI, que experimentó otras renuncias importantes de colaboradores en los últimos meses.

«Necesitamos avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que nosotros», explicó OpenAI sobre este equipo en una publicación del pasado 5 de julio de 2023, en su sitio web. 

«Para resolver este problema dentro de cuatro años, vamos a formar un nuevo equipo, codirigido por Ilya Sutskever y Jan Leike, y dedicaremos el 20% del cómputo que hemos obtenido hasta la fecha a este esfuerzo», dijo en la publicación.

Por lo tanto, parte del trabajo del dúo fue, en palabras de OpenAI, «garantizar que los sistemas de inteligencia artificial sean mucho más inteligentes que los humanos y sigan la intención humana».

El hecho de que aún no existan tales controles es un problema que OpenAI reconoció, según su publicación de julio de 2023.

«Actualmente, no tenemos una solución para dirigir o controlar una inteligencia artificial potencialmente superinteligente y evitar que se vuelva deshonesta. Nuestras técnicas actuales para alinear la IA, como el aprendizaje reforzado, a partir de la retroalimentación humana, dependen de la capacidad de los humanos para supervisar la IA», señaló su publicación.

«Pero los humanos no podrán supervisar de manera confiable sistemas de inteligencia artificial mucho más inteligentes que nosotros, por lo que nuestras técnicas de alineación actuales no alcanzarán la superinteligencia. Necesitamos nuevos avances científicos y técnicos», decía la empresa.

El problema de la «alineación»

Leike, quien trabajó en DeepMind antes de su trabajo en OpenAI, tenía grandes aspiraciones de mantener a los humanos a salvo de la superinteligencia que se ha creado.

«Es como si tuviéramos este difícil problema del que hemos estado hablando durante años y años y años, y ahora tenemos una oportunidad real de resolverlo», dijo Leike en un episodio de agosto de 2023 del pódcast 80,000 Hours.

En su Substack, Leike describió cómo resolver el problema de alineación (cuando las máquinas no actúan de acuerdo con las intenciones de los humanos) y qué se necesita para solucionarlo.

«Tal vez una solución definitiva al problema de la alineación se encuentre en el espacio de los problemas que los humanos pueden resolver. Pero tal vez no», escribió Leike en marzo de 2022. 

«Quizá deberíamos recurrir al espacio de los problemas que los humanos pueden resolver. Pero quizá no», agregó. 

«Al intentar resolver el problema de una vez por todas, puede que estemos intentando conseguir algo que no está a nuestro alcance. En lugar de eso, podemos perseguir un objetivo menos ambicioso que, en última instancia, pueda llevarnos a una solución, un producto mínimo viable (MVP) para la alineación», destacaba el ejecutivo de OpenAI.

Su propuesta era construir un sistema de inteligencia artificial que acelere la investigación para vincular sistemas más capaces.

Sutskever, Leike y los representantes de OpenAI no respondieron de inmediato a las solicitudes de comentarios de Business Insider, enviadas fuera del horario laboral habitual.

AHORA LEE: OpenAI podría anunciar un competidor de búsqueda de Google el lunes

TAMBIÉN LEE: OpenAI destruyó los libros con los que se entrenó inteligencia artificial, luego despidió a los empleados que recopilaron los datos

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: