• La cantidad de deepfakes se está disparando a medida que las herramientas de IA se vuelven más sofisticadas y ampliamente disponibles.
  • La mayoría de los deepfakes son porno y están dirigidos a todos, desde niños hasta celebridades.
  • Estos son algunos de los intentos de detener la explosión de los deepfakes.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Los riesgos de la inteligencia artificial pueden parecer abrumadores: por cada beneficio que proporciona la tecnología, hay un uso adverso. Un problema importante creado por la IA son los deepfakes: videos, imágenes o audio que pueden diseñarse para imitar a una víctima diciendo o haciendo algo que nunca sucedió.

Algunos deepfakes superponen una imagen a un video real, mientras que otros son completamente generados por computadora.

Un estudio de 2019 llamado The State of Deepfakes de Deep Trace encontró que 96% de este tipo de videos eran pornográficos.

Henry Ajder, un investigador de deepfakes coautor de ese estudio, dijo a Business Insider que si bien la cifra puede haber cambiado, el problema sigue siendo igual de grave.

Cada vez hay más herramientas que facilitan a las personas hacer deepfakes

A medida que las herramientas de inteligencia artificial como Dall-E, Stable Diffusion y Midjourney se vuelven más accesibles, se vuelve más fácil para las personas con muy pocos conocimientos técnicos crear deepfakes.

«El porcentaje general es ahora menor, pero el volumen general de contenido deepfake pornográfico se ha disparado», dijo Ajder. «Estamos hablando de millones de víctimas en todo el mundo».

Si bien el contenido es falso, la humillación, la sensación de trauma y la intimidación de las víctimas son muy reales.

Una adolescente británica se suicidó en 2021 después de que otros estudiantes de su escuela crearan y compartieran imágenes pornográficas falsas de ella en un grupo de Snapchat, informó BBC News.

Taylor Swift
El porno deepfake de la superestrella del pop Taylor Swift ha creado conciencia sobre el problema. Axelle/Bauer-Griffin/Getty Images

En enero, porno deepfake de Taylor Swift comenzó a circular en línea, lo que llevó a Elon Musk a prohibir las búsquedas de la superestrella del pop en X.

La situación puede parecer desalentadora; sin embargo, ya existen ciertas medidas disponibles que pueden ayudar a protegerte contra la manipulación de tu identidad por parte de la IA.

Detección de deepfakes

La administración Biden ha respaldado como una solución las marcas de agua digitales, donde el contenido está claramente etiquetado como generado por IA.

Las etiquetas tienen como objetivo aumentar la conciencia pública y facilitar que las plataformas eliminen y eliminen contenido falso dañino.

Google y Meta han anunciado planes para comenzar a etiquetar el material creado o modificado por IA con una «credencial digital» para aclarar los orígenes del contenido.

Y OpenAI, el creador de ChatGPT y el generador de imágenes DALL-E, planea incluir una marca de agua visual y metadatos ocultos que revelen la historia de una imagen, de acuerdo con los estándares de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA).

DALL-E 2 AI-generated image of a young woman
Imagen generada por IA de una mujer joven Open AI / Business Insider

También existen plataformas dedicadas a comprobar los orígenes del material en línea. Sensity, la compañía detrás del estudio de 2019 sobre deepfakes, desarrolló un servicio de detección que alerta a los usuarios por correo electrónico cuando están viendo contenido generado por IA.

Pero incluso cuando una imagen puede ser obviamente falsa (ya que la mayoría todavía carece de marcas de agua), el sujeto aún puede sentirse víctima.

‘Pastillas venenosas’

Las herramientas defensivas que protegen las imágenes de la manipulación se consideran una solución más sólida; sin embargo, todavía se encuentran en las primeras etapas de desarrollo.

Estas herramientas brindan a los usuarios la opción de procesar sus imágenes con una señal imperceptible que, cuando se ejecuta a través de cualquier sistema impulsado por inteligencia artificial, crea un desorden borroso e inutilizable.

Por ejemplo, Nightshade, una herramienta creada por investigadores de la Universidad de Chicago, agrega pixeles a las imágenes que se corrompen cuando se alimentan a una IA, pero dejan la imagen con el aspecto previsto para los humanos.

«Se puede pensar en Nightshade como agregar una pequeña pastilla venenosa dentro de una obra de arte de tal manera que literalmente intenta confundir el modelo de entrenamiento con lo que realmente está en la imagen», dijo a NPR Ben Zhao, uno de los investigadores.

People visit the World of AI·magination exhibition at the Artechouse in New York, United States on February 01, 2024. World of AI·magination is Artechouse Studio's latest venture into the dynamic world of generative AI, resulting in a large-scale experiential digital artwork.
La exposición World of AI·magination en Nueva York, creada utilizando IA generativa. Anadolu/Getty

Si bien está diseñada para proteger la propiedad intelectual de los artistas, la tecnología puede funcionar en cualquier fotografía.

«Esa es una muy buena defensa de primera línea para que la gente sienta que está a salvo subiendo fotos del cumpleaños de su amigo [o de cualquier otra persona]», dijo Ajder.

La regulación puede marcar la diferencia

Según Associated Press, al menos 10 estados en EU ya implementan un mosaico de protecciones legales para las víctimas de deepfakes.

Pero casos recientes de alto perfil han aumentado la presión sobre los legisladores para disuadir y castigar el uso malicioso de la IA y los deepfakes.

La Comisión Federal de Comunicaciones prohibió las llamadas automáticas generadas por IA después de que se realizaran llamadas falsas en las primarias de New Hampshire, utilizando una voz generada por IA que sonaba como Joe Biden.

Y en enero, un grupo bipartidista de senadores presentó un proyecto de ley federal conocido como Ley DEFIANCE que permitiría a las víctimas demandar a quienes crean y distribuyen deepfakes sexuales de ellos, lo que lo convierte en una cuestión civil más que criminal.

Un proyecto de ley presentado en mayo pasado por el representante Joe Morelle para criminalizar el intercambio de deepfakes no ha progresado.

Pero gran parte de la nueva legislación choca contra los defensores de la libertad de expresión. La razón, según Henry Ajder, es que algunos ven la creación privada de deepfakes como algo similar a una fantasía que alguien puede tener dentro de su cabeza sobre alguien que le gusta. Si nadie se entera del contenido pornográfico, ¿alguien ha resultado realmente perjudicado?

En México, la legislación sobre deepfakes aún se encuentra en desarrollo. No existe una ley específica que regule su creación o uso; sin embargo, ya existe una propuesta de reforma al Código Penal Federal para castigar con hasta ocho años de cárcel a los individuos que creen este tipo de contenido dañando la imagen de cualquier persona.

Disuadir a criminales

Esto ha tenido un efecto en la legislación del Reino Unido, donde la Ley de Seguridad en Línea ha declarado ilegal la distribución de pornografía deepfake, pero no su creación.

«Mi contraargumento es que si estás creando este contenido, estás creando algo que podría compartirse de una manera que una fantasía en realidad no puede compartirse», dice Ajder.

Aunque es difícil de procesar, criminalizar la pornografía deepfake sigue siendo un importante elemento disuasivo, en su opinión. Algunas personas están utilizando herramientas de inteligencia artificial para crear contenido para su propio consumo privado, afirma Ajder. Sin embargo, añade, es importante asegurarse de que se den cuenta de que se trata de un comportamiento delictivo para disuadir a quienes puedan simplemente sentir curiosidad.

Los gobiernos también pueden ejercer presión sobre los proveedores de motores de búsqueda, los desarrolladores de herramientas de inteligencia artificial y las plataformas de redes sociales donde se distribuye el contenido.

En India, un escándalo de pornografía deepfake que involucró a actrices de Bollywood impulsó al gobierno a acelerar la legislación y presionar a las grandes empresas de tecnología para evitar que el contenido generado por IA se difunda en línea.

«No debemos engañarnos pensando que es posible solucionar completamente el problema», admite Ajder. «En mi opinión, lo mejor que podemos hacer es introducir tanta fricción como sea posible. Por ello hay que ser increíblemente intencional al intentar crear este contenido».


AHORA LEE: Los tipos de deepfake más utilizados para atacar a empresas e individuos, según Kaspersky

TAMBIÉN LEE: Consumidores sobrevaloran su capacidad para detectar deepfakes, según estudio

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: