• El estallido de la pandemia en marzo de 2020 ofreció a la IA una oportunidad para mostrar las posibilidades de su desarrollo.
  • Las expectativas no se han cumplido: cientos de sistemas de aprendizaje han fracasado en los últimos meses a la hora de diagnosticar y evaluar a los pacientes de coronavirus.
  • Entre las causas del fracaso, subrayan varios expertos en MIT Technological Review, destaca la falta de muestras de datos amplias y fiables.

Aunque las vacunas han mejorado la situación de la población general con respecto al coronavirus, la lucha contra la enfermedad ha deparado algunas derrotas, como la de la Inteligencia Artificial (IA).

Apenas hace un año estaban depositadas muchas esperanzas en ella, pero se ha mostrado incapaz, una y otra vez, de ofrecer las soluciones.

Aunque aún es pronto para extraer conclusiones definitivas, los primeros estudios de experiencias en centros médicos con IA son, como poco, inquietantes.

“Esta revisión indica que casi todos los modelos de predicción se informaron y tienen un alto riesgo de sesgo, por lo que su rendimiento predictivo tiende a ser optimista”, afirmó en sus conclusiones un estudio de BMJ Medicine que analizó más de 200 modelos predictivos.

De estos, destacó el propio informe, solo un par resultan prometedores

No se muestra mucho más optimista el Instituto Alan Turing, en Reino Unido, que analizó en otra investigación el modo en que la IA se usó por algunos de los principales centros médicos del país para tratar a los pacientes de coronavirus.

Aunque reconoce que esta tecnología ha desempeñado un papel “integral” en la lucha contra la pandemia, también hace un exhaustivo listado de problemas que han imposibilitado que la IA desarrolle buena parte de su potencial como herramienta para ayudar a los expertos a combatirla.

Entre estos, destacan, por ejemplo, las dificultades de los profesionales para acceder a muestras de datos sólidas y fiables, depuradas para evitar duplicidades u omisiones importantes en las historias clínicas de las pacientes.

Pero el estudio del Instituto Alan Turing apuntó a problemas más profundos

Para empezar, muchos sanitarios e investigadores han denunciado privilegios. Concretamente, subrayó el informe, los que han tenido unos científicos sobre otros a la hora de acceder determinadas muestras de datos. 

Son maniobras donde solo unos pueden publicar sus artículos a cambio de perjudicar a sanitarios y epidemiólogos que no cuentan con muestras más amplias.

Y, por supuesto, a pacientes que no reciben mejores tratamientos por la falta de datos centralizados y de libre acceso para los profesionales.

El Instituto denunció en sus conclusiones la falta de datos sobre minorías étnicas y sociales, quienes no podían acudir a un hospital. No solo no han sido desatendidos ante un virus potencialmente mortal, sino que han quedado infrarrepresentados en las estadísticas, fuera del radar de la ciencia.

Los errores en las muestras de coronavirus son errores en la IA

Un error en las muestras de los datos que aprenden las IA se convierte, automáticamente, en un error de las propias máquinas de análisis de datos.

Unos cuantos de los errores cometidos por la IA durante esta pandemia han quedado reflejados en un estudio publicado en marzo de este año por la revista especializada Nature Machine Intelligence.

Entre ellos destaca, por ejemplo, una IA a la que se enseñó a diferenciar con escáneres de tórax lo que era coronavirus y lo que no.

El problema estuvo en que, para la muestras de personas sanas, los investigadores, por error, solo utilizaron pruebas realizadas en niños.

Como consecuencia, el modelo predictivo, en vez de extraer generalizaciones para pacientes con coronavirus, simplemente aprendió a distinguir a niños de adultos. Algo parecido sucedió con ciertos modelos a los que se intentó enseñar a clasificar a los pacientes de coronavirus con base a su estado.

Como la mayoría de los pacientes graves estaban tumbados y quienes se recuperaban ya podían caminar o estar un rato de pie, la IA aprendió a valorar el estar tumbado o estar de pie como un síntomas más.

Si un paciente estaba en la cama, aunque sus síntomas fueran leves, era calificado automáticamente como paciente grave.

Incluso elementos a priori tan anodinos como los expedientes de los pacientes se terminaron convirtiendo en síntomas

Según este estudio, algunos modelos aprendieron a identificar la letra de los informes médicos de ciertos hospitales.

Esto finalmente se convirtió en un indicio: la letra de los hospitales con más pacientes de coronavirus o que acogían a los enfermos más graves fue identificada por la IA como un factor que influía en el desarrollo de la enfermedad.

“Esta pandemia ha sido una gran prueba para la IA y la medicina”, dijo, en declaraciones recogidas por MIT Technology Review, Derek Driggs, experto en IA de la Universidad de Cambridge.

Su conclusión fue clara: “Esta herramienta habría servido de mucho para poner a la gente de nuestro lado. Pero no creo que hayamos pasado esa prueba”.

Para futuras pandemias, lo mejor es compartir

La solución, coincidieron los expertos, pasa por evitar que unos pocos acaparen toda la información y que esta finalmente se fragmente.

Compartir datos, compartir modelos, compartir métodos.

Bajo el actual sistema, explicaron varios expertos a MIT Technological Review, los científicos tienen muy pocos incentivos para trabajar y avanzar en su investigación.

En vez de eso, cada uno hace la guerra por su cuenta. También con la IA.

“Los modelos son muy parecidos, casi todos utilizan las mismas técnicas con pequeños retoques y los mismos datos, y todos cometen los mismos errores”, explicó Wynants.

“Si toda esta gente que hace nuevos modelos, probara los modelos que ya están disponibles, tal vez ya tendríamos algo que realmente funcionara”, agregó.

La utopía, un mundo sin fronteras (al menos en lo que a investigación se refiere), está más cerca de lo que parece.

Si el año pasado las academias de ciencias de los países que integran el G-7 ya reclamaban unión apenas un mes después de estallar la pandemia, el pasado mes de junio fue el propio G-7 quien se descolgó.

Se anunció la creación de una red internacional de investigación zoonóstica para identificar y prevenir futuras pandemias.

AHORA LEE: Wuhan hará tests a sus 12 millones de habitantes ante propagación de variante Delta

TAMBIÉN LEE: La atención a clientes es vital para las marcas, pero, ¿debemos escoger entre inteligencia artificial o factor humano?

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedIn y Twitter