• Apenas 9 caras generadas con IA son suficientes para suplantar 4 de cada 10 rostros en grandes bases de datos, muestra un estudio israelí.
  • Los resultados de la investigación ponen en duda la seguridad que ofrecen herramientas como el reconocimiento facial.
  • Los patrones más repetidos ofrecen el rostro de un hombre blanco, occidental y de edad avanzada.

Se ha convertido en un gesto cotidiano. Cada día, millones de personas desbloquean dispositivos como smartphones o tablets mirando fijamente a la pantalla durante una fracción de segundo. Puede parecer un mecanismo sencillo, pero detrás hay décadas de evolución tecnológica que permiten a estos aparatos identificar una serie de patrones en cada cara. 

Este parte de una premisa: ¿qué hay más seguro para identificarnos que nuestra propio rostro? Al fin y al cabo, ni siquiera los hermanos gemelos más parecidos entre sí son exactamente idénticos.

El razonamiento ha ayudado en los casos de robo o extravío de teléfonos que, hasta hace poco, solo se podían solucionar bloqueando la línea.

Hoy, a muchos usuarios les da tranquilidad que, aunque roben su smartphone, el ladrón no podrá usarlo por no tener sus rasgos faciales. Pero esto podría no ser un consuelo.

Una investigación de la Escuela de Informática Blavatnik y la Escuela de Ingeniería Eléctrica de la Universidad Tel Aviv, en Israel, puso de cabeza esta lógica. Según el estudio, bastan 9 caras generadas por inteligencia artificial (IA) para suplantar la identidad de entre 42% y 64% de la gente.

«La autenticación basada en el rostro es extremadamente vulnerable, incluso si no hay información sobre la identidad del objetivo», señala el informe en sus conclusiones. Además, abre la puerta a nuevas investigaciones sobre hasta qué punto son efectivas las tecnologías de reconocimiento facial como método de seguridad.

La IA funciona añadiendo caras maestras en cada nuevo intento

Las caras ficticias y neutras fueron generadas en este experimento de manera artificial por una IA entrenada para burlar los sistemas de reconocimiento facial a través de lo que se conoce como caras maestras o caras llave (en inglés, master faces). El proceso toma como referencia los patrones que más se repiten en los rostros de bases de datos. Como siempre sucede con los algoritmos, cuantos más grandes son estos repositorios, más aprende la IA.

En este caso, los investigadores utilizaron Labeled Faces in the Wild, una IA desarrollada por la Universidad de Massachusetts que recoge conjuntos de imágenes faciales de código abierto. Como bases de datos de caras sirvieron SphereFace, FaceNet y Dlib.

A ello se añadió StyleGAN, un software de generación de rostros ficticios creado en 2018 por Nvidia. Este ha sido fuente de polémica después de que, por ejemplo, Facebook se viera obligada en 2019 a cerrar una buena cantidad de perfiles falsos con rostros generados con esta tecnología.

Aunque la arquitectura algorítmica que la sustenta es de extraordinaria complejidad, el funcionamiento de la IA es relativamente sencillo. Primero, identifica las características más comunes entre los rostros analizados; a continuación, produce una cara llave para suplantar varias identidades.

Básicamente, el sistema funciona a base de insistir. Una vez generada la primera cara maestra, la IA toma automáticamente todas las identidades que no fueron suplantadas en el primer intento y prueba de nuevo. Repitiendo este proceso, relatan los investigadores, es como llegaron a las 9 que equivalen a más de 40% de sus amplias bases de datos. 

La efectividad no mejora con cada intento, aunque sí acumula éxitos. Esto quiere decir que la primera cara generada es la mejor, la llave que permite suplantar más identidades. Esta, han contado los investigadores, tiene el rostro de un hombre blanco occidental y de edad avanzada. A partir de las siguientes, llegan hombres asiáticos y mujeres también mayores.

Las caras de piel negra, por ejemplo, no llegan hasta el quinto intento. Esto es algo que los investigadores achacan a sesgos en las bases de datos con que alimentaron la IA.

Las caras maestras funcionan porque la coincidencia de los datos biométricos no es exacta

Se trata de un método de ensayo y error que no es muy distinto de lo que se conoce como ataques de diccionario (calco del inglés dictionary attack); una persona que trata de acceder a la contraseña de un usuario probando a introducir todas las palabras de un diccionario o enciclopedia. 

El método, antes considerado tan tedioso como para ser disuasorio, está más al alcance de la mano que nunca para los ladrones de identidades que cuentan con potentes programas capaces de probar una gran cantidad de palabras y combinaciones de ellas en cuestión de minutos. Investigaciones como esta de la Universidad de Tel Aviv demuestran que se puede hacer algo parecido con las caras.

«En los sistemas biométricos del mundo real, normalmente solo se pueden intentar un número de entradas antes de ser bloqueado. Sin embargo, la coincidencia en la biometría no es exacta, y el espacio de datos biométricos no está distribuido uniformemente. Esto puede sugerir que con un puñado de muestras, se puede cubrir una porción mayor a la de la población», detalla el estudio.

AHORA LEE: Así funcionará el sistema que Apple empleará para encontrar imágenes de abuso infantil en iCloud

TAMBIÉN LEE: Mark Zuckerberg quiere expandir Facebook al metaverso, pero nadie está realmente seguro de lo que eso significa

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedIn y Twitter