• Las aplicaciones de inteligencia artificial y los sitios web que crean imágenes de desnudos falsos están experimentando un aumento en el número de visitantes.
  • La firma de análisis Graphika encontró que un grupo de 34 plataformas de este tipo obtuvieron 24 millones de visitantes en septiembre.
  • Las plataformas utilizan inteligencia artificial para hacer que las fotos de mujeres completamente vestidas parezcan desnudas.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Las aplicaciones de inteligencia artificial que pueden «desnudar» a las mujeres en fotografías están teniendo un mayor número de usuarios, según muestran los datos.

Estos sitios y aplicaciones para «desvestir» permiten a los usuarios subir una imagen de alguien completamente vestido. Luego se utiliza inteligencia artificial para generar una imagen desnuda falsa de ellos.

Un grupo de 34 sitios web de este tipo atrajo a más de 24 millones de visitantes únicos en septiembre, dijo la firma de análisis de medios sociales Graphika en su informe A Revealing Picture. El informe citó datos del sitio de análisis de tráfico Similarweb.

El informe también dice que la cantidad de spam de enlaces de referencia para estos sitios y aplicaciones ha aumentado en más de 2000% desde principios de este año en plataformas como X y Reddit.

Otros 53 grupos de Telegram que se utilizan para acceder a esos servicios tienen al menos 1 millón de usuarios, según el informe.

«Evaluamos que la creciente importancia y accesibilidad de estos servicios probablemente conducirá a más casos de daño en línea, como la creación y difusión de imágenes de desnudos no consentidos, campañas de acoso dirigidas, sextorsión y la generación de material de abuso sexual infantil», dijeron los investigadores del informe.

Los desnudos falsos son un problema que existe desde hace varios años en internet

Las aplicaciones que crean desnudos deepfake —imágenes alteradas digitalmente para hacer que una persona parezca desnuda en una fotografía— existen desde hace varios años. Por lo general, se crean sin el consentimiento del sujeto y anteriormente se han dirigido a celebridades y personalidades en línea.

En febrero, la personalidad de Twitch QTCinderella fue víctima de videos porno falsos de ella que circulaban en línea.

El día después de que se compartiera en línea una captura de pantalla del video, QTCinderella dijo en una publicación X: «La cantidad de dismorfia corporal que he experimentado desde que vi esas fotos me ha arruinado».

Y añadió: «No es tan simple como ‘simplemente’ ser violado. Es mucho más que eso».

En septiembre circularon en varios colegios españoles imágenes falsas desnudas de más de 20 niñas. Las fotografías fueron procesadas por una aplicación de inteligencia artificial, según El País.

AHORA LEE: Creadores de contenido en YouTube deberán revelar cuando usen inteligencia artificial en sus videos

TAMBIÉN LEE: 73% de internautas a nivel mundial confía en contenido creado por inteligencia artificial generativa, señala estudio

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: