• OpenAI enfrenta un verdadero desastre a medida que salen a la luz más preocupaciones sobre su compromiso con la seguridad.
  • El creador de ChatGPT se ha enfrentado a reacciones negativas por cuestiones de transparencia, acuerdos de confidencialidad y una pelea con Scarlett Johansson.
  • El CEO Sam Altman tampoco la está pasando bien, ya que asume un nuevo trabajo: control de daños.
  • ¡Nos vemos en TikTok!

La difícil semana de OpenAI se ha convertido en un mes difícil, y no parece un problema que su CEO, Sam Altman, pueda resolver fácilmente.

En el último desarrollo de la saga OpenAI-es-un-desastre, un grupo de empleados actuales y anteriores de la compañía hicieron públicas sus preocupaciones sobre las motivaciones financieras de la empresa y su compromiso con una inteligencia artificial responsable.

En un informe del New York Times publicado el martes, describieron una cultura de falsas promesas en torno a la seguridad.

«El mundo no está preparado y nosotros no estamos preparados», escribió Daniel Kokotajlo, ex investigador de OpenAI, en un correo electrónico anunciando su dimisión, según el informe del Times. «Me preocupa que estemos avanzando a toda costa y racionalizando nuestras acciones».

También el martes, los denunciantes, junto con otros expertos de IA, publicaron una carta abierta exigiendo cambios en la industria. El grupo pide a las empresas de IA que se comprometan con una cultura de crítica abierta. También les exigen prometer no tomar represalias contra quienes presenten sus preocupaciones.

Si bien la carta no está dirigida específicamente a OpenAI, es una indirecta bastante clara. A su vez, marca otro acontecimiento perjudicial para una empresa que ha recibido varios golpes en las últimas semanas.

En una declaración a Business Insider, un portavoz de OpenAI reiteró el compromiso de la compañía con la seguridad. El vocero destacó una «línea directa de integridad anónima» para que los empleados expresen sus inquietudes y al comité de seguridad de la compañía.

«Estamos orgullosos de nuestro historial proporcionando los sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo», dijo por correo electrónico. «Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología y continuaremos interactuando con los gobiernos, la sociedad civil y otras comunidades del mundo».

La seguridad no parece ser una prioridad para OpenAI

Un tema común de las quejas es que, en OpenAI, la seguridad no es lo primero: el crecimiento y las ganancias sí lo son.

En 2019, OpenAI pasó de ser una organización sin fines de lucro dedicada a la tecnología segura a una de «beneficios limitados» con un valor de 86,000 millones de dólares. Y ahora Altman está considerando convertirlo en un viejo vehículo del capitalismo con fines de lucro.

Esto ha dejado a la seguridad en un lugar inferior en la lista de prioridades, según afirman ex miembros de la junta directiva y empleados.

«Basándonos en nuestra experiencia, creemos que el autogobierno no puede resistir de manera confiable la presión de los incentivos a las ganancias», escribieron en mayo las ex miembros de la junta directiva Helen Toner y Tasha McCauley en un artículo de opinión de The Economist, que pedía una supervisión externa de las empresas de IA.

Toner y McCauley votaron a favor de la destitución de Altman el año pasado. (En una respuesta, los actuales miembros de la junta directiva de OpenAI, Bret Taylor y Larry Summers, defendieron a Altman y los estándares de seguridad de OpenAI).

La compañía de Sam Altman favorece el crecimiento en lugar de pensar en tecnología más segura

Algunos expertos dicen que esos incentivos a las ganancias han puesto el crecimiento en primer plano, con OpenAI compitiendo contra otras compañías de IA para construir formas más avanzadas de la tecnología. Esto hace que la compañía lance esos productos antes de que algunas personas piensen que están listos para ser el centro de atención.

En una entrevista emitida la semana pasada, Toner dijo que Altman habitualmente mentía y ocultaba información a la junta directiva, incluso sobre procesos de seguridad. Según Toner, ni siquiera estaban al tanto del lanzamiento de ChatGPT en noviembre de 2022 y los descubrieron cuando se publicó en Twitter. (La compañía no lo negó explícitamente, pero dijo en un comunicado que estaba «decepcionada de que la sra. Toner continúe revisando estos temas»).

El ex investigador Kokotajlo le dijo al Times que Microsoft comenzó a probar Bing con lo que los empleados de OpenAI creían que era una versión inédita de GPT. Esta fue una medida que la junta de seguridad de OpenAI no había aprobado. (Microsoft negó que esto hubiera sucedido, según el Times).

Las preocupaciones reflejan las de Jan Leike, quien hasta hace unas semanas dirigía el equipo de superalineación de OpenAI con el científico jefe, Ilya Sutskever, otro desertor reciente.

El equipo, dedicado a estudiar los riesgos que la superinteligencia de IA planteaba para la humanidad, experimentó varias salidas en los últimos meses. Se disolvió cuando sus líderes se fueron, aunque desde entonces la empresa formó un nuevo comité de seguridad.

«En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a productos brillantes», escribió Leike en una serie de publicaciones en las redes sociales sobre su partida. «He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura».

Estas preocupaciones aumentan a medida que la empresa se acerca a la inteligencia artificial general (AGI), una tecnología capaz de imitar comportamiento humano. Muchos expertos dicen que la AGI aumenta la probabilidad de p(doom), un término nerd y deprimente para la probabilidad de que la IA destruya a la humanidad.

Para decirlo sin rodeos, como dijo el principal investigador de IA, Stuart Russell a Business Insider: «Incluso las personas que están desarrollando la tecnología dicen que existe la posibilidad de extinción humana. ¿Qué les dio derecho a jugar a la ruleta rusa con los hijos de todos?».

Confrontaciones con Scarlett Johansson

Probablemente no tenías en tu quiniela de 2024 que Black Widow se enfrentaría a un gigante de Silicon Valley, pero aquí estamos.

En las últimas semanas, la compañía se ha topado con algunos enemigos improbables con preocupaciones que van más allá de la seguridad, incluida Scarlett Johansson.

El mes pasado, la actriz buscó un abogado y escribió una declaración mordaz sobre OpenAI después de que lanzara un nuevo modelo de IA con una voz inquietantemente similar a la de ella.

Si bien la compañía insiste en que no buscó imitar a Johansson, las similitudes eran innegables, particularmente dado el hecho de que Altman publicó la palabra «her» en X en el momento del anuncio del producto, aparentemente una referencia a la película de Johansson de 2013 en la que ella interpretó un asistente virtual de IA. (Spoiler: la película no tiene exactamente un buen aspecto para la tecnología).

«Estaba sorprendida, enojada y desconcertada que el señor Altman buscara una voz que sonaba tan inquietantemente similar», dijo Johansson sobre el modelo. La actriz agregó que había rechazado múltiples ofertas de Altman para darle una voz a OpenAI.

La defensa de la compañía fue, más o menos, que su liderazgo no se comunicó adecuadamente y manejó el asunto con torpeza. Esto no es reconfortante, considerando que la compañía está tratando con algunas de las tecnologías más poderosas del mundo.

OpenAI ha reprimido críticas internas con diversos acuerdos de confidencialidad

Las cosas empeoraron cuando se publicó un informe sobre la cultura de la empresa de reprimir críticas con restrictivos e inusuales acuerdos de confidencialidad.

Los exempleados que abandonaron la empresa sin firmar un acuerdo de confidencialidad podrían perder el capital adquirido, que para algunos vale millones. Un acuerdo de este tipo era básicamente inaudito en el mundo de la tecnología.

«Esto es culpa mía y una de las pocas veces que me he sentido realmente avergonzado al liderar OpenAI; no sabía que esto estaba sucediendo y debería haberlo hecho», respondió Altman a las afirmaciones en una publicación X.

Pero días después fue sorprendido con un nuevo escándalo cuando salió un informe que indicaba que Altman sabía sobre los acuerdos de confidencialidad desde el principio.

Como aprendió Altman, cuando llueve, llueve a cántaros. Pero la lluvia de mayo no trajo flores de junio.

La imagen de Sam Altman sigue deteriorándose

Como muchos gigantes tecnológicos, OpenAI es sinónimo de su cofundador y CEO, Altman, quien, hasta hace poco, era visto como un cerebrito benevolente con una visión de un mundo mejor.

Sin embargo, a medida que la percepción de la empresa sigue empeorando, también lo hace la de su líder.

A principios de este año, la élite del capital de riesgo comenzó a volverse contra Altman, y ahora es posible que el público esté haciendo lo mismo.

El incidente de Scarlett Johansson lo dejó pareciendo incompetente; el error de los acuerdos de confidencialidad lo dejó pareciendo como alguien poco honesto; y las preocupaciones de seguridad lo muestran como un genio malvado.

Más recientemente, The Wall Street Journal informó sobre algunos negocios cuestionables de Altman.

Si bien no se beneficia directamente de OpenAI (no posee ninguna participación en la empresa y su salario reportado de 65,000 dólares es una gota en el océano en comparación con su patrimonio neto de 1,000 mdd), abundan los conflictos de intereses. El Journal informó que tenía inversiones personales en varias empresas con las que OpenAI hace negocios.

Posee acciones de Reddit, por ejemplo, que recientemente firmó un acuerdo con OpenAI. El primer cliente de la startup de energía nuclear Helion, en la que Altman es un importante inversionista, fue Microsoft, el mayor socio de OpenAI. (Altman y OpenAI dijeron que se recusó de estos acuerdos).

Ante la avalancha de cobertura mediática perjudicial, la empresa y su líder han tratado de controlar los daños. Altman anunció que donaría la mayor parte de su riqueza, y se informa que OpenAI cerró un importante trato con Apple.

Pero unas cuantas noticias positivas no serán suficientes para limpiar el lío que enfrenta Altman.

AHORA LEE: OpenAI comienza a entrenar su próximo modelo de inteligencia artificial y crea comité de seguridad

TAMBIÉN LEE: Es cuestión de tiempo que Sam Altman se convierta en el gran villano del mundo tech

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: