• Sam Altman dijo a los periodistas en Londres que está preocupado por el impacto de la próxima Ley de IA de la UE en OpenAI.
  • Altman le dijo al Financial Times que "intentará cumplir", pero podría "dejar de operar" si no puede.
  • La ley propuesta por la UE se centra en regular la IA y proteger a los europeos de ciertos riesgos de la tecnología.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Sam Altman, CEO de OpenAI, advirtió que la compañía creadora de ChatGPT podría dejar de operar en Europa si el bloque implementa las nuevas reglas propuestas sobre inteligencia artificial.

«Los detalles realmente importan», dijo Altman a los periodistas durante su gira por algunas de las capitales de Europa. “Intentaremos cumplir, pero si no podemos, dejaremos de operar”, informó el Financial Times.

La ley para la inteligencia artificial propuesta por la Unión Europea —que es «la primera ley sobre IA de un regulador importante en cualquier lugar», según su sitio web— se centra en regular la IA y proteger a los europeos de ciertos riesgos de la tecnología clasificados en tres categorías.

El Parlamento Europeo votó a favor por amplia mayoría de la adopción de la Ley de IA; ahora está lista para ser adoptada, con el 14 de junio fijado como fecha tentativa.

El CEO de OpenAI teme que sus modelos de IA sean considerados de alto riesgo

Según los informes, a Altman le preocupa que los sistemas de OpenAI, como ChatGPT y GPT-4, puedan ser designados como de «alto riesgo» según la regulación, reportó Time.

Eso significaría que la empresa tendría que cumplir con ciertos requisitos de seguridad y transparencia, como revelar que su contenido fue generado por IA. OpenAI y Sam Altman no respondieron de inmediato a la solicitud de comentarios de Insider.

Según las normas europeas propuestas:

  • Se prohibirían los sistemas de IA clasificados en la categoría de mayor riesgo de la Ley de IA. Eso sería para la IA que, según las regulaciones, «crearía un riesgo inaceptable. Ejemplo de esto es la puntuación social administrada por el gobierno del tipo que se usa en China».
  • La segunda categoría de riesgo estaría «sujeta a requisitos legales específicos». Esta sería para los sistemas de inteligencia artificial que se usarían para escanear currículums y clasificar a los solicitantes de empleo.
  • La tercera categoría es para los sistemas de IA que «no están explícitamente prohibidos o enumerados como de alto riesgo» y, por lo tanto, «en gran parte no estarán regulados».

La nueva ley europea entorno a la inteligencia artificial pediría mayor responsabilidad a empresas

Las reglas de la Ley de IA también requerirían que las empresas de IA diseñen modelos de IA para evitar que «generen contenido ilegal» y que publiquen «resúmenes de datos protegidos por derechos de autor utilizados para capacitación».

Cuando OpenAI lanzó GPT-4 en marzo, algunos miembros de la comunidad de IA se sintieron decepcionados porque OpenAI no reveló información sobre qué datos se usaron para entrenar el modelo, cuánto costó y cómo se creó.

Ilya Sutskever, cofundador y científico jefe de OpenAI, le dijo anteriormente a The Verge que la compañía no compartió esta información debido a la competencia y la seguridad.

«Se necesitó casi todo OpenAI trabajando juntos durante mucho tiempo para producir esto», dijo Sutskever. «Y hay muchas empresas que quieren hacer lo mismo, así que desde un punto de vista competitivo, puedes ver esto como una maduración del campo».

Sutskever también dijo que, si bien la competencia es lo más importante ahora, la seguridad será más importante en el futuro.

Si bien Altman dijo que le preocupa cómo la Ley de IA afectará la presencia de OpenAI en Europa, recientemente le dijo al Senado de los EU que debería haber una agencia gubernamental para supervisar los proyectos de IA que funcionan «por encima de cierta escala de capacidades».

Altman está presionando para que una agencia gubernamental otorgue licencias a las empresas de IA y se las quite si superan las normas de seguridad.

AHORA LEE: ¿Quién quiere regular la inteligencia artificial?

TAMBIÉN LEE: El creador de ChatGPT dice que la IA podría ser ‘aterradora’ y que su regulación ‘será crítica’

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: