• El FBI denunci√≥ intentos de suplantaci√≥n de identidad por parte de ladrones que quer√≠an acceder a informaci√≥n delicada de empresas.
  • El m√©todo consiste en aplicar de manera remota a trabajos remotos mediante la generaci√≥n de "deepfakes".
  • Estas im√°genes buscan que cualquier rostro diga lo que sea, que es un "anzuelo" de los delincuentes.
  • ¬ŅYa conoces nuestra cuenta en Instagram? S√≠guenos.

Las ¬ędeepfakes¬Ľ est√°n tomando terreno en el √°mbito laboral. Este es un claro ejemplo: se realiza una entrevista de trabajo por videollamada para un trabajo en remoto. Esta es la nueva normalidad tras la pandemia.

En este caso, la empresa es una entidad financiera y el puesto de trabajo es el de un desarrollador de software con acceso a información delicada de la entidad como los datos personales de los clientes.

Todo parece encajar. El supuesto candidato tiene experiencia y credenciales casi inmejorables; cada respuesta que da en la entrevista a través de Teams, de Meet o de alguna otra aplicación es mejor que la anterior.

Pero hay un problema: la persona no existe. O, al menos, no como el entrevistador cree.

¬ęDeepfakes¬Ľ: tecnolog√≠a usada por criminales

Su imagen y su voz han sido creada ex profeso a trav√©s de tecnolog√≠a ¬ędeepfake¬Ľ por personas expertas en este tipo de herramientas para presentar ante la empresa en cuesti√≥n a un supuesto candidato ideal.

Su intención no es otra que la de, una vez aceptado el trabajo, tener acceso a través de las credenciales de esa persona a la clase de datos delicados que solo pueden manejar en las empresas trabajadores de alto rango y desarrolladores de tecnología.

Todo para, una vez dentro de la compa√Ī√≠a, destruirla.

Parece el argumento de una pel√≠cula futurista de polic√≠as y ladrones cibern√©ticos, pero se trata de un modus operandi denunciado por el FBI. Es real y est√° ocurriendo.

¬ęEl Centro de Denuncias de Delitos en Internet (IC3) del FBI advierte del aumento de las denuncias que informan del uso de ¬ędeepfakes¬Ľ y del robo de informaci√≥n de identificaci√≥n personal para solicitar una variedad de puestos de trabajo a distancia y de trabajo en casa¬Ľ, detall√≥ en un comunicado.

Los ¬ędeepfakes¬Ľ, a√Īaden, incluyen un video, una imagen o una grabaci√≥n alterada y manipulada de forma convincente para hacer creer que alguien est√° haciendo o diciendo algo que en realidad no se ha hecho o dicho.

El FBI no aporta información sobre cuántas empresas denunciaron este tipo de suplantaciones ni cuántos de estos falsos candidatos han tenido éxito en su intento. Pero está claro lo que buscaban: información sensible.

¬ęLos puestos de trabajo a distancia o de empleo desde casa identificados en estos informes incluyen funciones de tecnolog√≠a de la informaci√≥n y de programaci√≥n inform√°tica, bases de datos y software. En particular, algunos de los denunciados incluyen el acceso a informaci√≥n personal de los clientes, datos financieros, bases de datos inform√°ticas corporativas y/o informaci√≥n de propiedad¬Ľ, a√Īadi√≥ la agencia.

Sombras y estornudos: clave para detectar a estafadores

Desde hace casi una d√©cada, la tecnolog√≠a ¬ędeepfake¬Ľ emplea del aprendizaje autom√°tico (machine learning) para crear videos de personas diciendo cosas que en realidad nunca mencionaron.

En otras palabras, puede tomar la imagen de cualquiera. Mediante herramientas digitales, como si se tratara de un mu√Īeco ventr√≠locuo, poner a esa persona a hablar.

Aunque prometedora porque muchas empresas ven en las ¬ędeepfakes¬Ľ la herramienta ideal para generar, por ejemplo, asistentes robotizados pero de apariencia humana de muy bajo costo para sus p√°ginas web, la tecnolog√≠a ha estado m√°s de una vez bajo la lupa de las autoridades.

Esto se populariz√≥ hace a√Īos gracias a las ¬ędeepfakes¬Ľ que circularon en internet del actor Tom Cruise. Con el paso del tiempo, la broma ya no fue graciosa.

Hoy, son muchos los usuarios que piden limitar el uso de esta tecnolog√≠a. Eso tras descubrirse que hay infinidad de p√°ginas webs consagradas, por ejemplo, a la posibilidad de introducir la imagen de cualquier persona en mitad de una escena pornogr√°fica.

Pero hay trucos para identificarlos. En este caso, dice el FBI, detalles como errores de sincronizaci√≥n entre la voz y la imagen; sombras que no act√ļan como deber√≠an y, sobre todo, estornudos que se producen con la boca cerrada del candidato, delataron a m√°s de uno.

El problema es que van mejorando. Cuando el video es generado por profesionales, afirman expertos, no es tan f√°cil detectar que es falso. Ello especialmente si quien est√° al otro lado de la pantalla no est√° buscando deliberadamente errores en la imagen que est√° viendo.

Sin ir m√°s lejos, destaca Gizmodo, un reciente estudio de la Carnegie Mellon University muestra que la precisi√≥n de la propia inteligencia artificial a la hora de detectar ¬ędeepfakes¬ęes entre 30% y 97%. Estas cifras var√≠an dependiendo de la pericia del creador. 

AHORA LEE: Especialistas comparten 3 lecciones para que las empresas logren mayor diversidad e inclusi√≥n

TAMBI√ČN LEE: Trabajar desde casa puede ¬ęfrenarte¬Ľ para obtener un ascenso ‚ÄĒlos jefes pueden solucionarlo con estas medidas

Descubre m√°s historias en Business Insider M√©xico

S√≠guenos en FacebookInstagramLinkedInTikTokTwitter y Youtube

AHORA VE: