• Una historia sobre un ingeniero de Google que dijo que la compañía había creado una inteligencia artificial consciente recientemente se volvió viral.
  • El chatbot de IA de Google no adquirió consciencia, dijeron siete expertos a Insider.
  • Tres expertos le dijeron a Insider que el sesgo de la IA es una preocupación mucho mayor.
  • ¿Ya conoces nuestra cuenta en Instagram? Síguenos.

Primero, las buenas noticias: la inteligencia artificial (IA) consciente no está ni cerca de convertirse en algo real. Ahora las malas noticias: hay muchos otros problemas con ella.

Una historia sobre una IA supuestamente consciente se volvió viral recientemente. El ingeniero de Google, Blake Lemoine, reveló su creencia de que un chatbot de la empresa llamado LaMDA (Language Model for Dialogue Applications) había se volvió consciente.

Siete expertos en inteligencia artificial que hablaron con Insider rechazaron unánimemente la teoría de Lemoine de que LaMDA era un ser consciente. Incluyeron a un empleado de Google que trabajó directamente con el chatbot.

Sin embargo, la IA no necesita ser inteligente para causar daños graves, dijeron los expertos a Insider.

La discriminación es el verdadero problema actual de la IA

El sesgo de la IA, cuando replica y amplifica las prácticas discriminatorias humanas históricas, está bien documentado.

Se descubrió que los sistemas de reconocimiento facial muestran sesgos raciales y de género. De hecho, en 2018 Amazon cerró una herramienta de IA de reclutamiento que había desarrollado porque discriminaba constantemente a las mujeres solicitantes.

«Cuando los algoritmos predictivos o la llamada ‘IA’ se usan tan ampliamente, puede ser difícil reconocer que estas predicciones a menudo se basan en poco más que una rápida regurgitación de opiniones, estereotipos o mentiras de fuentes múltiples», dice la doctora Nakeema Stefflbauer, una especialista en ética de IA y CEO de la red de mujeres en tecnología Frauenloop.

«Tal vez sea divertido especular sobre cuán ‘inteligente’ aparece la autogeneración de cadenas de palabras históricamente correlacionadas; sin embargo, ese es un ejercicio falso cuando, en este momento, las predicciones algorítmicas excluyen, estereotipan y apuntan injustamente a individuos y comunidades en función de los datos extraídos de , digamos, Reddit», le dice a Insider.

La IA está encontrando nuevas maneras de discriminar a las personas

La profesora Sandra Wachter de la Universidad de Oxford detalló en un artículo reciente que la IA no solo muestra un sesgo contra las características protegidas como la raza y el género, sino que encuentra nuevas maneras de categorizar y discriminar a las personas.

Por ejemplo, el navegador que usas para solicitar un trabajo podría significar que los sistemas de contratación de IA favorecen o desclasifican tu solicitud.

La preocupación de Wachter es la falta de un marco legal para evitar que la IA encuentre nuevas formas de discriminar.

«Sabemos que la IA recoge patrones de injusticias pasadas en la contratación, los préstamos o la justicia penal y los transporta al futuro. Pero la IA también crea nuevos grupos que no están protegidos por la ley para tomar decisiones importantes», dice.

«Estos problemas necesitan respuestas urgentes. Abordemos estas primero y preocupémonos por la IA consciente si estamos cerca de cruzar ese puente y cuando estemos realmente cerca de cruzarlo», agrega Wachter.

Laura Edelson, investigadora de ciencias de la computación en la Universidad de Nueva York, dice que los sistemas de IA también brindan una salida para las personas que los usan cuando resultan ser discriminatorios.

«Un caso de uso común para los sistemas de aprendizaje automático es tomar decisiones que los humanos no quieren tomar como una forma de abdicar de la responsabilidad. ‘No soy yo, es el sistema'», le dice a Insider.

Stefflbauer cree que la exageración en torno a la IA consciente eclipsa activamente los problemas más apremiantes relacionados con el sesgo de la IA.

«Estamos descarrilando el trabajo de los investigadores de ética de IA de clase mundial que tienen que desacreditar estas historias de evolución algorítmica y ‘sensibilidad’ de tal manera que no hay tiempo ni atención de los medios para los daños crecientes que están permitiendo los sistemas predictivos».

AHORA LEE: El jefe de inteligencia artificial de Meta dejará la empresa en medio de una reorganización

TAMBIÉN LEE: 88% de los CEOs de Latinoamérica reconoce la importancia de una inteligencia artificial ética para su negocio, revela estudio de IBM

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedIn, TikTok y YouTube

AHORA VE: