• Sam Altman comparó las ambiciones de OpenAI con la escala del Proyecto Manhattan en 2019, según el NYT.
  • Parafraseó a Robert Oppenheimer con su creencia de que la IA debe progresar a pesar de los riesgos.
  • "¿Estoy haciendo algo bueno? ¿O realmente malo?" según se informa, dijo el CEO.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

El CEO de OpenAI, Sam Altman, comparó previamente la escala de su empresa con el Proyecto Manhattan, nombre en clave del programa del gobierno de Estados Unidos para producir la primera bomba nuclear en la Segunda Guerra Mundial, según el New York Times.

Días después de que Microsoft se comprometiera a invertir 1,000 millones de dólares en OpenAI en 2019, Altman le dijo al reportero de tecnología del NYT, Cade Metz, que el programa de armas nucleares de la Segunda Guerra Mundial era un «proyecto de la escala de OpenAI, el nivel de ambición al que aspiramos».

Según Metz, Altman también parafraseó al líder del Proyecto Manhattan, Robert Oppenheimer, en un discurso de 1945 en el que justificó la creación de las bombas que devastaron Hiroshima y Nagasaki como una expansión necesaria del conocimiento humano.

«La tecnología sucede porque es posible», dijo Altman, y agregó que él y Oppenheimer compartieron el mismo cumpleaños: el 22 de abril, según el NYT.

OpenAI busca alcanzar la inteligencia general artificial

El objetivo principal de OpenAI es alcanzar la inteligencia general artificial (AGI, por sus siglas en inglés) —el punto en el que la IA se vuelve tan capaz como los humanos— y hacerlo de manera segura, según una publicación de blog de febrero.

Pero el rápido progreso de la empresa —como la actualización al modelo GPT-4 cuatro meses después del lanzamiento público de ChatGPT— ha causado preocupación.

El 36% de los que respondieron a una encuesta de la Universidad de Nueva York dijeron que temían que la tecnología pudiera conducir a una «catástrofe de nivel nuclear»; sin embargo, investigadores dijeron que la IA «no se preocupa por nosotros ni por la vida inteligente en general».

Un informe de Goldman Sachs publicado la semana pasada sugirió que la IA podría impactar en 300 millones de trabajos de tiempo completo. La IA ya se usa para escribir cartas de presentación, libros para niños y ayudar a los estudiantes a hacer trampa en los ensayos.

El CEO de OpenAI advirtió que AGI vendría con un «grave riesgo de uso indebido, accidentes drásticos y trastornos sociales» en una publicación de blog. En la conversación de 2019 con Metz, también preguntó: «¿Estoy haciendo algo bueno? ¿O realmente malo?».

Altman detalló aún más sus creencias en esta publicación de blog. «Debido a que la ventaja de AGI es tan grande, no creemos que sea posible o deseable que la sociedad detenga su desarrollo para siempre; en cambio, la sociedad y los desarrolladores de AGI tienen que pensar cómo hacerlo bien», escribió.

Altman le dijo al Wall Street Journal que cree que un ingreso básico universal podría compensar los trabajos que son reemplazados por IA, permitiendo que las personas realicen trabajos más creativos. También forma parte de una junta de seguridad conjunta junto con el CTO de Microsoft, Kevin Scott, que tiene la capacidad de revertir cualquier lanzamiento de producto si se considera demasiado peligroso, según el Journal.

El temor por el avanzado desarrollo de la inteligencia artificial se hace cada vez más palpable

OpenAI recibió críticas renovadas la semana pasada cuando más de 1,000 personas —incluidos los expertos en inteligencia artificial, Elon Musk y el cofundador de Apple, Steve Wozniak— firmaron una carta abierta en la que pedían que el desarrollo de la tecnología se detuviera durante seis meses.

«Los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable», lee la carta.

El viernes pasado, la agencia nacional de protección de datos de Italia anunció que estaba bloqueando el acceso a ChatGPT e investigando OpenAI. Citó una violación de datos y su uso de datos personales para entrenar el algoritmo del chatbot.

OpenAI no respondió de inmediato a la solicitud de comentarios de Insider, enviada fuera del horario laboral normal.

AHORA LEE: Europol advierte sobre los riesgos que presenta ChatGPT para la ciberseguridad

TAMBIÉN LEE: ChatGPT filtró los historiales de conversación de usuarios —así respondió el CEO de OpenAI

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: