• Sam Altman dijo que le preocupaba que la creación de ChatGPT fuera "algo realmente malo" debido a los riesgos que plantea la inteligencia artificial.
  • El CEO de OpenAI habló con Satyan Gajwani, vicepresidente de Times Internet, en Nueva Delhi.
  • Altman se encuentra en una gira por seis países que incluye a Israel, Jordania, Qatar, los Emiratos Árabes Unidos, India y Corea del Sur.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

El CEO de OpenAI, Sam Altman, dice que pierde el sueño por los peligros que representa ChatGPT.

En una conversación durante un viaje reciente a la India, Altman dijo que le preocupaba haber hecho «algo realmente malo» al crear ChatGPT, que se lanzó en noviembre y despertó un gran interés en la inteligencia artificial.

«Lo que más me quita el sueño es la idea hipotética de que hemos hecho algo realmente malo al lanzar ChatGPT», dijo Altman a Satyan Gajwani, vicepresidente de Times Internet, en un evento organizado por Economic Times.

Altman dijo que le preocupaba que «tal vez había algo difícil y complicado» que su equipo había pasado por alto al trabajar en el chatbot.

Cuando se le preguntó si la inteligencia artificial debería regularse de manera similar a la energía atómica, Altman dijo que tenía que haber un mejor sistema para auditar el proceso.

«Vamos a tener un sistema en marcha para que podamos auditar a las personas que lo están haciendo, licenciarlo, tener pruebas de seguridad antes del despliegue», dijo.

Los riesgos son altos

Numerosos líderes tecnológicos y funcionarios gubernamentales han expresado su preocupación por el ritmo del desarrollo de las plataformas de inteligencia artificial.

En marzo, un grupo de líderes tecnológicos, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron una carta abierta con el Future of Life Institute para advertir que los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que se tenga confianza en que sus efectos serán positivos y efectivos. los riesgos son manejables.

La carta pedía una pausa de seis meses en el entrenamiento de sistemas de inteligencia artificial más potentes que GPT-4.

Altman dijo que la carta «carecía de matices técnicos sobre dónde necesitamos la pausa».

A principios de este mes, Altman se encontraba entre un grupo de más de 350 científicos y líderes tecnológicos que firmaron una declaración expresando su profunda preocupación por los riesgos de la inteligencia artificial.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, se lee en el comunicado.

AHORA LEE: Un exejecutivo de Google advirtió que el peligro de la inteligencia artificial es ‘más grande que el cambio climático’

TAMBIÉN LEE: La inteligencia artificial supone un riesgo de «extinción» para la humanidad, señalan expertos

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: