• El Gobierno de Xi Jinping publicó este fin de semana un código ético para garantizar el despliegue de modelos de inteligencia artificial éticos a lo largo del gigante asiático.
  • La potencia busca convertirse en líder en sistemas de inteligencia artificial para 2030, y con este documento adelanta a la Unión Europea.
  • El nuevo documento del régimen chino enfatiza la importancia de que los modelos de IA sean "controlables" y "fiables".

El Ministerio de Ciencia y Tecnología chino publicó un código ético con el que regularán los modelos de inteligencia artificial (IA). Los usuarios contarán con plenos derechos para aceptar y rechazar el servicio de una IA. Así como para detener sus interacciones y operaciones con estos sistemas en el momento en el que lo deseen.

De esta manera Pekín se adelanta a la Unión Europea —que lleva meses defendiendo la necesidad de contar con IA que priorice al humano. La Comisión presentó en abril de este mismo año un borrador para un Reglamento sobre la IA; al que España se propuso para realizar una prueba.

The South China Morning Post, dijo que con el código que publicó el Gobierno de Xi Jinping, los humanos tendrán un «pleno poder de decisión».

Este marco ético al que se tendrán que atener los modelos de IA funcionales o en desarrollo también se alinean con los objetivos del gigante asiático. China quiere ser líder en inteligencia artificial para 2030, recuerda el diario.

La premisa de la que parten estas directrices es clara: «Asegurarse que la IA siempre está bajo el control de los seres humanos». Rebecca Arcesati, analista en un think tank alemán llamado Mercator Institute for China Studies, explica en The South China Morning Post que esta es la primera aproximación del gobierno chino hacia la consecución de una IA ética.

El documento se bautizó como Especificaciones Éticas para Inteligencias Artificiales de Nueva Generación y lo publicó —todavía como borrador— una comisión del Ministerio de Ciencia y Tecnología chino; constituido en febrero de 2019. Esta comisión ya publicó un primer documento con algunas directrices, en junio de aquel año.

Esto es lo que dice el código ético para el uso de inteligencia artificial

En seis puntos, el nuevo documento del régimen chino enfatiza la importancia de que los modelos de IA sean «controlables» y «fiables». Otro de los principios mentados en el texto plantea la necesidad de que esta tecnología se emplee para mejorar el bienestar humano. Así como promover la transparencia y la justicia y proteger la privacidad y seguridad.

Arcesati enfatiza en declaraciones a The South China Morning Post que la publicación del código es «un claro mensaje» a los gigantes tecnológicos; como Amazon, Facebook o Google. Sobre todo, a aquellas compañías que «han basado su modelo de negocio en algoritmos de recomendación».

Estas directrices también plantean la necesidad de evitar riesgos innecesarios en la aplicación de estas IA, garantizando que las mismas no tienen vulnerabilidades ni brechas de seguridad; así como que no se empleen en actividades ilegales o ilícitas que puedan comprometer «la seguridad nacional» o «el interés general».

Esto es lo que dice una fundación de consultoría algorítimica

Hace escasos días, en un foro de especialistas en sistemas de IA, Gemma Galdon, fundadora y directora de Eticas —nombre que recibe tanto una consultora como una fundación que se dedica a la auditoría algorítmica— habló sobre la encrucijada europea y la necesidad de que la Administración Pública cuente con algoritmos éticos.

En su intervención, Galdon recordaba que uno de los principales desafíos que obstaculiza el despliegue de sistemas de IA éticos, es un fallo de mercado. Y este es que se intenta escalar el mismo software a todo tipo de cliente.

Además, recordó que el mercado tecnológico sigue orientado a atender consumo, y no a resolver los auténticos problemas sociales.

En esa encrucijada, y frente al modelo de tecnología de consumo que encarna Silicon Valley, Galdon expuso también cuál es la alternativa que se están dando en otros bloques del planeta: el despliegue de sistemas tecnológicos con fines autoritarios, con sistemas de IA diseñados para garantizar grandes plataformas de vigilancia masiva.

Activistas en Europa, entre tanto, siguen demandando a la Unión que prohíban plataformas de vigilancia masiva mediante reconocimiento facial en su futuro Reglamento sobre la IA.

AHORA LEE: El uso de la inteligencia artificial podría ayudar a evitar la ceguera diabética en 4 millones de mexicanos

TAMBIÉN LEE: Cómo la inteligencia artificial puede ayudar a combatir los ataques de phishing

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter YouTube

AHORA VE: