• La Unión Europea aprobó un nuevo acuerdo para la creación de un marco regulatorio en torno a la inteligencia artificial.
  • El Reglamento sobre la IA establece cuatro niveles de riesgo para los sistemas de IA, según su potencial impacto en los seres humanos.
  • El acuerdo también prohíbe ciertos usos de la IA, como el reconocimiento facial en el lugar de trabajo o en instituciones educativas.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.
 

La Unión Europea aprobó el fin de semana un nuevo acuerdo para la creación de un marco regulatorio en torno a la inteligencia artificial.

Este marco, conocido como Reglamento sobre la IA, es el primero de su tipo en el mundo y tiene como objetivo garantizar que el uso de la tecnología en la UE sea seguro, ético y respetuoso con los derechos fundamentales. Esta propuesta también busca estimular la inversión y la innovación en inteligencia artificial en Europa.

El acuerdo entre los países de la Unión Europea y los miembros del Parlamento Europeo se produjo después de casi 15 horas de negociaciones que siguieron a un debate de casi 24 horas el día anterior.

Con el acuerdo, la Unión Europea está cerca de convertirse en la primera gran potencia mundial en promulgar leyes que rijan la inteligencia artificial.

Mitigando los riesgos de la inteligencia artificial

De inicio, el documento establece cuatro niveles de riesgo para los sistemas de inteligencia artificial, según su potencial impacto en los seres humanos:

  • Riesgo mínimo o nulo: Los sistemas de IA que no presentan ningún riesgo significativo no están sujetos a ninguna regulación específica
  • Riesgo limitado: Los sistemas de IA que pueden tener un impacto limitado en los seres humanos deben ser evaluados para garantizar que cumplan con los principios de la IA ética.
  • Alto riesgo: Los sistemas de IA que pueden tener un impacto significativo en los seres humanos deben cumplir con una serie de requisitos, como la transparencia, la trazabilidad y la no discriminación.
  • Riesgo inaceptable: Los sistemas de IA que se consideran una amenaza clara para la seguridad, los medios de vida y los derechos de las personas están prohibidos.

Los sistemas de inteligencia artificial que caigan en la categoría de riesgo inaceptable o alto riesgo deben ser evaluados por un organismo independiente antes de su puesta en marcha. Los sistemas que no superen la evaluación no podrán utilizarse.

El documento también reconoce la amenaza potencial que plantean ciertas aplicaciones de la inteligencia artificial para los ciudadanos. Debido a ello, acuerda prohibir sistemas de categorización biométrica que utilizan características sensibles (como creencias políticas, religiosas, filosóficas, orientación sexual, raza); la extracción no dirigida de imágenes faciales de internet o de CCTV para crear bases de datos de reconocimiento facial; el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, entre otras.

Los gobiernos sólo podrán utilizar la vigilancia biométrica en tiempo real en espacios públicos en casos de víctimas de ciertos delitos (como secuestros), prevención de amenazas genuinas como ataques terroristas, y búsqueda de personas sospechosas de delitos más graves.

Mayor regulación a empresas que creen modelos de IA

El acuerdo también expande las reglas a sistemas avanzados que sustentan los servicios de inteligencia artificial de propósito general (GPAI, por sus siglas en inglés) como ChatGPT y el chatbot Bard de Google.

Específicamente, se requiere que todos los sistemas GPAI cumplan con las obligaciones de transparencia antes de salir al mercado. Estos incluyen la elaboración de documentación técnica, el cumplimiento de la ley de derechos de autor de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para su formación.

Las multas a las empresas por infracciones oscilarían entre 7.5 millones de euros o 1.5% de su facturación global; o bien 35 millones de euros o el 7% de su facturación global.

La ley sobre inteligencia artificial de Europa podría entrar en vigor hasta 2025

El texto acordado ahora tendrá que ser adoptado formalmente tanto por el Parlamento como por el Consejo para convertirse en ley de la UE.

Se espera que se discutirá a mayor detalle a principios del próximo año. De aprobarse, entrará en vigor en algún momento de 2025.

Las ambiciosas leyes de Europa en torno a la inteligencia artificial se producen mientras empresas como OpenAI —en la que Microsoft es un importante inversionista—siguen descubriendo nuevos usos para su tecnología. De hecho, la semana pasada Google lanzó un nuevo modelo de inteligencia artificial, Gemini, para rivalizar con GPT-4 de OpenAI.

AHORA LEE: Qué es la inteligencia artificial general y por qué estamos más cerca de conseguirla

TAMBIÉN LEE: Robots con IA dicen en conferencia de la ONU que un día serán capaces de dirigir el mundo

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: