• ChatGPT ha demostrado que la IA puede ser una herramienta de productividad útil que puede cambiar nuestra forma de trabajar.
  • Pero tiene un lado oscuro: a veces toma decisiones discriminatorias basadas en datos erróneos.
  • Los legisladores y los expertos del sector están de acuerdo: La IA necesita una normas estrictas para que el sector prospere.
  • ¿Ya conoces nuestra cuenta de Instagram

La última oleada de inteligencia artificial (IA), ejemplificada por ChatGPT de OpenAI, abrió una caja de Pandora de preguntas sobre su poder. Puede escribir cartas de presentación, artículos al estilo de BuzzFeed, etc.

Despertó un gran entusiasmo en torno al poder y el potencial de ChatGPT, y herramientas como ésta, para llevar la IA a nuestra vida cotidiana. Con Microsoft, Google y otras empresas empeñadas en acercar esa tecnología a su oferta de aplicaciones para el consumidor, no hace más que crecer.

Sin embargo, tiene un lado oscuro. Incluso antes del actual auge de la IA generativa, hubieron varios casos en los que los algoritmos negaron servicios críticos a personas.

Associated Press y The Markup informaron de que los algoritmos hipotecarios tienen 80% más probabilidades de rechazar las solicitudes de los estadounidenses negros que de los blancos.

El año pasado, la Oficina de Protección Financiera del Consumidor de Estados Unidos advirtió que los prestamistas deben explicar por qué se rechazó a alguien, incluso si se utilizó una IA en la decisión.

Las normas prevendrían discriminación por parte de la IA

Algunos expertos afirman que existe un sesgo incluso en la contratación laboral impulsada por IA, con sistemas automatizados que discriminan hasta en función del navegador web utilizado.

«El uso más común de la IA es en la asignación de servicios públicos y con fines empresariales. Con ella deciden quién obtiene préstamos hipotecarios, oportunidades de empleo y atención sanitaria», dijo Alex Hanna, director de investigación del organismo de investigación de IA Distributed AI Research Institute, o DAIR.

«En el peor de los casos, estamos sobrealimentando las tecnologías de la discriminación», añadió.

Esto llevó a un llamamiento generalizado en favor de limitaciones e incluso normas en torno a la IA. En particular, de figuras destacadas de la industria tecnológica en Silicon Valley como Brad Smith, de Microsoft y Mira Murati, de OpenAI. También de legisladores del Capitolio, como el representante demócrata Ted Lieu propuso regular la IA en un artículo de opinión publicado en The New York Times.

De hecho, es raro que los líderes de ambos bandos se pongan de acuerdo. Ahora, solo necesitan decidir qué forma adoptarán estas normas y reglamentos para la IA. En última instancia, los expertos coinciden en que se trata de un paso necesario para que la incipiente industria prospere de verdad.

«Las normas que se pongan a la IA serán con base en qué tipo de futuro queremos. Si es uno en el que haya vigilancia utilizando tecnología defectuosa, o si queremos limitar a esos posibles malos actores», dijo Lieu a Insider en una entrevista reciente.

La industria de la IA está de acuerdo en implementar normas estrictas

Los expertos de la industria tecnológica afirman que la regulación de la IA es un paso prudente para ayudar a garantizar que la tecnología pueda introducirse en el mercado de masas de manera sostenible y responsable.

Algunos sugieren que si Estados Unidos hubiera adoptado el mismo enfoque con respecto a las redes sociales en una etapa anterior de su existencia, empresas como Facebook y Twitter no habrían causado tanto daño potencial —o se habrían encontrado con tantos problemas políticos— en el futuro.

«Si pensamos en cómo las burbujas de las redes sociales cambiaron el panorama electoral en todo el mundo… O si hubiéramos regulado esas industrias antes, ¿habríamos visto algo diferente?», se pregunta Triveni Gandhi, responsable de IA en la startup Dataiku. Según ella, «es muy necesario que los reguladores intervengan porque ese tipo de empresas no se van a autorregular».

La industria tecnológica considera históricamente que la regulación es perjudicial para la innovación. Sin embargo, los partidarios de las normas para la IA señalan los casos en los que una regulación estricta ayudó a prosperar a las tecnologías.

Lieu señaló la industria automovilística como ejemplo de un sector que ha prosperado bajo estrictas barreras reguladoras. Los coches son ahora más seguros y resistentes gracias a las políticas de seguridad; los vehículos eléctricos mejoraron cuando las normas medioambientales obligaron a los fabricantes a buscar alternativas de combustible.

Las peticiones de regulación de la IA no se limitan a responsables políticos e investigadores. Incluso los creadores de ChatGPT se ven a sí mismos trabajando con los reguladores para llevar las tecnologías de IA al mercado de masas de manera responsable: Murati, directora de tecnología de OpenAI, declaró a Time que las normas proporcionarán a empresas emergentes como la suya el marco necesario para competir mejor con grandes como Google.

Argumentos a favor de la transparencia

Los expertos y los responsables políticos coinciden en que algunos usos de la tecnología deben regularse. Esto, a medida que la IA está más disponible y es más fácil acceder a ella. La razón es para que no discrimine a determinadas personas o tomando decisiones basadas en datos erróneos.

Hanna, del DAIR, afirma que la regulación podría dar un impulso muy necesario para que las empresas de IA «muestren su trabajo», exigiéndoles que demuestren que tienen en cuenta los sesgos en sus conjuntos de datos y algoritmos.

Esas normas, a su vez, podrían ayudar a las empresas y otras organizaciones a sentirse bien a la hora de recurrir a la IA, al tener un mayor grado de confianza en su capacidad para automatizar tareas manuales sin causar problemas.

Lieu planea presentar la regulación de la IA a la Cámara de Representantes muy pronto, con la intención de presionar al gobierno de Biden para que reflexione más sobre el impacto de esta tecnología. Estados Unidos aún no tiene una idea clara de cómo sería la normativa, aunque Lieu dijo que podría seguir el modelo de la propuesta de la Unión Europea de limitar los tipos de casos de uso de la IA.

«Ya utilizamos la IA, pero no afecta a la gente de la misma manera hasta que empieza a actuar de forma humana o afecta a la vida de alguien«, dijo Lieu a Insider. «La tecnología puede ser defectuosa y estar llena de discriminación».

AHORA LEE: ¿Quién quiere regular la inteligencia artificial?

TAMBIÉN LEE: ¿Puede la inteligencia artificial superar a la humana?

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: