• El Frontier Model Forum, un foro sobre seguridad de la inteligencia artificial respaldado por empresas como OpenAI, Microsoft y Google nombró a Chris Meserole como su primer director ejecutivo.
  • El Foro también lanzó una iniciativa de más de 10 millones de dólares para promover la investigación en seguridad de la inteligencia artificial.
  • Varios gobiernos y organizaciones a nivel internacional están tomando medidas para regular la inteligencia artificial y abordar los riesgos que la tecnología plantea para la seguridad pública y global.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

El Frontier Model Forum —foro sobre seguridad de la inteligencia artificial lanzado por empresas como OpenAI, Microsoft, Google y Anthropic— nombró este miércoles a su primer director y anunció una iniciativa de más de 10 millones de dólares (mdd) para promover la investigación en este campo.

Chris Meserole, quien recientemente se desempeñó como director de iniciativa de inteligencia artificial y tecnología emergente en el laboratorio de ideas Brookings Institution, será el primer director ejecutivo del Frontier Model Forum.

De acuerdo con un comunicado conjunto, Meserole será responsable de ayudar al Foro a cumplir sus objetivos de avanzar en la investigación de seguridad de la inteligencia artificial e identificar las mejores prácticas de seguridad para modelos más avanzados.

«Los modelos de IA más potentes son enormemente prometedores para la sociedad, pero para aprovechar su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura. Estoy emocionado de asumir ese desafío con el Frontier Model Forum», dijo Meserole en el comunicado.

Diversos gobiernos ya han empezado a movilizarse para regular la inteligencia artificial y asegurar su seguridad

El Foro, lanzado en julio, se centra en los «modelos de IA de vanguardia» que superan las capacidades presentes en sistemas actuales. Los líderes de la industria han advertido que tales modelos podrían tener capacidades peligrosas suficientes para representar riesgos graves para la seguridad pública.

Frente a ello, el Foro planea implementar un fondo de más de 10 mdd que apoyará el desarrollo de nuevas evaluaciones de modelos y técnicas para ver qué capacidades potencialmente peligrosas poseen.

Diversos países ya se han movilizado para intentar regular la tecnología, con Gran Bretaña organizando una cumbre mundial sobre seguridad de la inteligencia artificial en noviembre. Esta se centrará en comprender los riesgos que plantea la inteligencia artificial y cómo se podrían apoyar los marcos nacionales e internacionales.

Por su parte, legisladores de la Unión Europea aún deben llegar a un acuerdo sobre varias cuestiones relacionadas con nuevas reglas de inteligencia artificial que buscan que se conviertan en ley.

China publicó el 12 de octubre propuestas de requisitos de seguridad para empresas que ofrecen servicios impulsados por IA generativa, incluida una lista negra de fuentes que no pueden usarse para entrenar modelos de IA.

El Consejo de Seguridad de la ONU también celebró su primer debate formal sobre la inteligencia artificial en julio, abordando aplicaciones militares y no militares de la tecnología que «podrían tener consecuencias muy graves para la paz y la seguridad globales», según el secretario general Antonio Guterres.

AHORA LEE: Qué es la inteligencia artificial general y por qué estamos más cerca de conseguirla

TAMBIÉN LEE: Consejo de derechos humanos de la ONU adopta resolución para abordar transparencia en inteligencia artificial

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: