• El FBI denunció intentos de suplantación de identidad por parte de ladrones que querían acceder a información delicada de empresas.
  • El método consiste en aplicar de manera remota a trabajos remotos mediante la generación de "deepfakes".
  • Estas imágenes buscan que cualquier rostro diga lo que sea, que es un "anzuelo" de los delincuentes.
  • ¿Ya conoces nuestra cuenta en Instagram? Síguenos.

Las «deepfakes» están tomando terreno en el ámbito laboral. Este es un claro ejemplo: se realiza una entrevista de trabajo por videollamada para un trabajo en remoto. Esta es la nueva normalidad tras la pandemia.

En este caso, la empresa es una entidad financiera y el puesto de trabajo es el de un desarrollador de software con acceso a información delicada de la entidad como los datos personales de los clientes.

Todo parece encajar. El supuesto candidato tiene experiencia y credenciales casi inmejorables; cada respuesta que da en la entrevista a través de Teams, de Meet o de alguna otra aplicación es mejor que la anterior.

Pero hay un problema: la persona no existe. O, al menos, no como el entrevistador cree.

«Deepfakes»: tecnología usada por criminales

Su imagen y su voz han sido creada ex profeso a través de tecnología «deepfake» por personas expertas en este tipo de herramientas para presentar ante la empresa en cuestión a un supuesto candidato ideal.

Su intención no es otra que la de, una vez aceptado el trabajo, tener acceso a través de las credenciales de esa persona a la clase de datos delicados que solo pueden manejar en las empresas trabajadores de alto rango y desarrolladores de tecnología.

Todo para, una vez dentro de la compañía, destruirla.

Parece el argumento de una película futurista de policías y ladrones cibernéticos, pero se trata de un modus operandi denunciado por el FBI. Es real y está ocurriendo.

«El Centro de Denuncias de Delitos en Internet (IC3) del FBI advierte del aumento de las denuncias que informan del uso de «deepfakes» y del robo de información de identificación personal para solicitar una variedad de puestos de trabajo a distancia y de trabajo en casa», detalló en un comunicado.

Los «deepfakes», añaden, incluyen un video, una imagen o una grabación alterada y manipulada de forma convincente para hacer creer que alguien está haciendo o diciendo algo que en realidad no se ha hecho o dicho.

El FBI no aporta información sobre cuántas empresas denunciaron este tipo de suplantaciones ni cuántos de estos falsos candidatos han tenido éxito en su intento. Pero está claro lo que buscaban: información sensible.

«Los puestos de trabajo a distancia o de empleo desde casa identificados en estos informes incluyen funciones de tecnología de la información y de programación informática, bases de datos y software. En particular, algunos de los denunciados incluyen el acceso a información personal de los clientes, datos financieros, bases de datos informáticas corporativas y/o información de propiedad», añadió la agencia.

Sombras y estornudos: clave para detectar a estafadores

Desde hace casi una década, la tecnología «deepfake» emplea del aprendizaje automático (machine learning) para crear videos de personas diciendo cosas que en realidad nunca mencionaron.

En otras palabras, puede tomar la imagen de cualquiera. Mediante herramientas digitales, como si se tratara de un muñeco ventrílocuo, poner a esa persona a hablar.

Aunque prometedora porque muchas empresas ven en las «deepfakes» la herramienta ideal para generar, por ejemplo, asistentes robotizados pero de apariencia humana de muy bajo costo para sus páginas web, la tecnología ha estado más de una vez bajo la lupa de las autoridades.

Esto se popularizó hace años gracias a las «deepfakes» que circularon en internet del actor Tom Cruise. Con el paso del tiempo, la broma ya no fue graciosa.

Hoy, son muchos los usuarios que piden limitar el uso de esta tecnología. Eso tras descubrirse que hay infinidad de páginas webs consagradas, por ejemplo, a la posibilidad de introducir la imagen de cualquier persona en mitad de una escena pornográfica.

Pero hay trucos para identificarlos. En este caso, dice el FBI, detalles como errores de sincronización entre la voz y la imagen; sombras que no actúan como deberían y, sobre todo, estornudos que se producen con la boca cerrada del candidato, delataron a más de uno.

El problema es que van mejorando. Cuando el video es generado por profesionales, afirman expertos, no es tan fácil detectar que es falso. Ello especialmente si quien está al otro lado de la pantalla no está buscando deliberadamente errores en la imagen que está viendo.

Sin ir más lejos, destaca Gizmodo, un reciente estudio de la Carnegie Mellon University muestra que la precisión de la propia inteligencia artificial a la hora de detectar «deepfakes«es entre 30% y 97%. Estas cifras varían dependiendo de la pericia del creador. 

AHORA LEE: Especialistas comparten 3 lecciones para que las empresas logren mayor diversidad e inclusión

TAMBIÉN LEE: Trabajar desde casa puede «frenarte» para obtener un ascenso —los jefes pueden solucionarlo con estas medidas

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTikTokTwitter y Youtube

AHORA VE: