• Los deepfakes utilizan inteligencia artificial de aprendizaje profundo para reemplazar la semejanza de una persona con otra en videos y otros medios digitales.
  • Existe la preocupación de que la tecnología deepfake pueda utilizarse para crear noticias falsas y videos falsos engañosos.
  • Aquí hay una introducción a los deepfakes: qué es, cómo funciona y cómo se puede detectar.

Las computadoras cada vez simulan mejor la realidad. El cine moderno, por ejemplo, se basa en gran medida en decorados, escenarios y personajes generados por computadora en lugar de ubicaciones prácticas y accesorios que alguna vez fueron comunes. La mayoría de las veces estas escenas son en gran medida indistinguibles de la realidad. 

Recientemente, la tecnología deepfake ha estado en los titulares. La última iteración en imágenes de computadora, los deepfakes se crean cuando se programa la inteligencia artificial (IA) para reemplazar la semejanza de una persona con otra en un video grabado. 

¿Qué es un deepfake y cómo funciona?

El término «deepfake» proviene de la tecnología subyacente «deep learning», que es una forma de IA. Los algoritmos de aprendizaje profundo, que se enseñan a sí mismos a resolver problemas cuando se les dan grandes conjuntos de datos, se utilizan para intercambiar caras en videos y contenido digital para crear medios falsos de apariencia realista. 

Existen varios métodos para crear deepfakes, pero el más común se basa en el uso de redes neuronales profundas que involucran codificadores automáticospara intercambiar caras. Primero necesita un video de destino para usar como base del deepfake y luego una colección de videoclips de la persona cuyo rostro aparecerá. 

Los videos pueden no tener ninguna relación: el destino puede ser un clip de una película de Hollywood, por ejemplo, y los videos de la persona que desea insertar en la película pueden ser clips aleatorios descargados de YouTube. 

El codificador automático es un programa de inteligencia artificial de aprendizaje profundo que estudia los videoclips para comprender cómo se ve la persona desde distintos ángulos y condiciones ambientales. Luego mapea a esa persona con el individuo en el video de destino al encontrar características comunes. 

Se agrega otro tipo de aprendizaje automático a la combinación, conocido como Redes Adversarias Generativas (GAN), que detecta y mejora cualquier falla en el deepfake, lo que dificulta que los detectores los decodifiquen. 

Las GAN también se utilizan para crear deepfakes, basándose en el estudio de grandes cantidades de datos para «aprender» cómo desarrollar nuevos ejemplos que imiten lo real, con resultados dolorosamente precisos. 

Hay muchos software que facilitan la generación de deepfakes

Varias aplicaciones y softwares facilitan la generación de deepfakes incluso para principiantes, como la aplicación china Zao, DeepFace Lab; FaceApp (que es una aplicación de edición de fotos con técnicas de inteligencia artificial incorporadas), Face Swap y el DeepNude, que se eliminó desde entonces.

Se puede encontrar una gran cantidad de softwares deepfake en GitHub, una comunidad de código abierto de desarrollo de software. Algunas de estas aplicaciones se utilizan con fines de entretenimiento puro, por lo que la creación de deepfake no está prohibida, mientras que es mucho más probable que otras se utilicen de forma maliciosa. 

Muchos expertos creen que, en el futuro, los deepfakes se volverán mucho más sofisticados a medida que la tecnología se desarrolle más. Eso podría introducir amenazas más serias, relacionadas con la interferencia electoral, la tensión política y la actividad criminal adicional.

¿Cómo se usan los deepfakes?

Si bien la capacidad de intercambiar caras automáticamente para crear videos sintéticos creíbles tiene algunas aplicaciones benignas interesantes (como en el cine y los juegos), esta es obviamente una tecnología peligrosa con algunas aplicaciones preocupantes. Una de las primeras aplicaciones del mundo real para deepfakes fue, de hecho, crear pornografía sintética.

En 2017, un usuario de Reddit llamado «deepfakes » creado un foro para el porno que los actores cara intercambiarse destacados. Desde ese momento, la pornografía (en particular la pornografía venganza) ha manifestado repetidas veces las noticias, dañando gravemente la reputación de celebridades y figuras prominentes. Según Según un informe de Deeptrace, la pornografía representó 96% de los videos deepfake encontrados en línea en 2019. 

El video deepfake también se ha utilizado en política. En 2018, por ejemplo, un partido político belga publicó un video de Donald Trump dando un discurso pidiendo a Bélgica que se retirara del acuerdo climático de París. Trump nunca pronunció ese discurso. 

Los expertos políticos conocedores de la tecnología se están preparando para una futura ola de noticias falsas que presentará deepfakes convincentemente realistas. 

Por supuesto, no todos los videos deepfake representan una amenaza existencial para la democracia. No hay escasez de deepfakes que se utilizan para el humor y la sátira, como chips que responden preguntas como ¿cómo se vería Nicolas Cage si apareciera en «En busca del arca perdida» ?

¿Los deepfakes son solo videos?

Los deepfakes no se limitan solo a videos. El audio deepfake es un campo de rápido crecimiento que tiene una enorme cantidad de aplicaciones. 

Ahora se pueden hacer deepfakes de audio realistas utilizando algoritmos de aprendizaje profundo con solo unas pocas horas de audio de la persona cuya voz se está clonando; cuando se crea un modelo de voz, esa persona «decir» cosas, como cuando se utilizó un audio falso de un CEO para cometer fraude

El audio deepfake tiene aplicaciones médicas en forma de reemplazo de voz, así como en el diseño de juegos de computadora; ahora los programadores pueden permitir que los personajes de los jugadores digan cualquier cosa en tiempo real en lugar de depender de un conjunto limitado de guiones que se grabaron antes de que se lanzara el juego.

Cómo detectar un deepfake

A medida que los deepfakes se vuelven más comunes, es muy probable que la sociedad deba adaptarse colectivamente para detectarlos.

A menudo, como es el caso de la ciberseguridad, debe surgir más tecnología deepfake para detectarla y evitar que se propague. Esto, a su vez puede desencadenar un círculo vicioso y potencialmente crear más daño. 

Hay un puñado de indicadores que revelan deepfakes:

  • Los deepfakes actuales tienen problemas para animar rostros de manera realista. El resultado es un video en el que el sujeto nunca parpadea, o parpadea con demasiada frecuencia o de forma poco natural. Sin embargo, después de que investigadores de la Universidad de Albany publicaron un estudio que detectaba la anomalía del parpadeo, se lanzaron nuevos deepfakes sin este problema. 
  • Busca problemas con la piel o el cabello, o rostros que parezcan más borrosos que el entorno en el que están colocados. El enfoque puede parecer anormalmente suave. 
  • ¿La iluminación parece poco natural? A menudo, los algoritmos deepfake conservarán la iluminación de los clips que se utilizaron como modelos para el video falso. Esta puede no coincidir con la iluminación del video objetivo. 
  • Es posible que el audio no parezca coincidir con la persona, especialmente si el video fue falso pero el audio original no fue manipulado con tanto cuidado. 

Combatir los deepfakes con tecnología

Si bien los deepfakes se volverán más realistas con el tiempo, no estamos del todo indefensos cuando se trata de combatirlos. Varias empresas están desarrollando métodos para detectar deepfakes. Muchas de ellas son startups. 

Sensity, por ejemplo, ha desarrollado una plataforma de detección similar a un antivirus para deepfakes que alerta a los usuarios por correo electrónico cuando están viendo algo que tiene huellas dactilares reveladoras de medios sintéticos generados por IA. Sensity utiliza los mismos procesos de aprendizaje profundo que se utilizan para crear videos falsos. 

AHORA LEE: Si tienes instaladas estas 4 extensiones de Chrome, elimínalas inmediatamente: instalan spyware en tu PC para robarte información privada

TAMBIÉN LEE: Un videojuego de SpaceX podría ser una realidad después de que Elon Musk dijera que ‘probablemente no demandará’ a un desarrollador que usa el nombre y logos de la compañía para uno

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitter y LinkedIn