• A veces, los 'detectores' de imágenes creadas por la IA etiquetan como reales a fotos que no lo son. 
  • Esos falsos positivos ya se están dando con fotografías sobre el conflicto en Israel y Palestina, con las implicaciones que eso conlleva.
  • Optic AI Or Not arrojó diferentes resultados sobre una misma imagen; a unos usuarios les decía que era real y a otros, que era creada por IA.
  • ¿Ya conoces nuestra cuenta de Threads? Síguenos.

La proliferación de deepfakes —piezas gráficas en las que una inteligencia artificial (IA) es capaz de suplantar el rostro o la voz de una persona— ha dejado de ser el único problema al que nos enfrentamos par combatir la desinformación.

Ahora, parece que es imposible discernir cuándo una imagen, por ejemplo, ha sido creada o no por una máquina. Los supuestos detectores de imágenes generadas por inteligencia artificial están arrojando falsos resultados sobre imágenes del conflicto entre Israel y Palestina.

La imagen generada que inició el caos

404 Media —un diario digital fundado por periodistas de Vice y Motherboard especializados en tecnología— publicó un artículo donde muestran una imagen de unos supuestos bebés calcinados durante los ataques que Hamás perpetró en Israel este mismo mes. 

La imagen se compartió en redes por conservadores estadounidenses en estos últimos días. Con ella, pretendían corroborar la información inicial de que Hamás decapitó a decenas de bebés en sus ataques. El Gobierno de Estados Unidos desmintió primero la veracidad de la imagen; luego, con menor intensidad, las propias Fuerzas de Defensa Israelíes.

La polémica surgió en Twitter, la plataforma de Elon Musk ahora conocida como X, después de que Ben Shapiro publicara la imagen la semana pasada expresando: «¿Quieren pruebas gráficas de bebés judíos asesinados? Aquí las tenéis, patéticos haters de judíos».

Horas después, un usuario de la misma red social, Jackson Hinkle, con cerca de 800,000 seguidores, compartió sus hallazgos. Hinkle exportó la imagen a una herramienta llamada Optic AI Or Not, que promete detectar si una fotografía se generó con IA.

La respuesta fue contundente: «Esta imagen ha sido generada con IA».

404 Media también hizo su comprobación cuando preparó uno de sus reportajes. Obtuvo el mismo resultado. 

Business Insider España sometió la imagen a examen. La respuesta, en este caso, fue distinta, ya que parecía ser creada por humanos; es interesante la contundencia que expresan los resultados.

La polémica en redes no tuvo más recorrido. Shapiro acusó al tuitero de mentiroso. «La imagen ha sido generada por IA. Subir la imagen a un detector de redes neuronales adversarias prueba este veredicto», se puede leer la aclaración entonces debajo del tweet.

El problema es que el veredicto del detector actualmente ya no es el mismo, parece un problema importante conocer qué es verdad dentro de la red y qué no lo es.

Los expertos opinan

Hany Farid, profesor de la Universidad de California Berkeley es uno de los mayores expertos en retoque digital y manipulación fotográfica.

El profesor deduce que esta imagen es auténtica. En declaraciones a 404, destaca que la iluminación de la imagen es perfectamente real, y los generadores de imágenes por IA no suelen arrojar resultados tan impecables.

Optic AI Or Not promete ser capaz de identificar imágenes generadas por modelos como Stable Diffusion, MidJourney, DALL-E, o rostros creadores a través de redes neuronales adversarias.

Sin embargo, sus resultados son tan contundentes como escuetos. Destacan si una imagen es generada por una IA o parece creada por un humano, sin detallar cómo su propio modelo de inteligencia artificial puede llegar a esa conclusión. 

Esta situación crea un problema de incertidumbre y falta de confianza que se ha convertido en un estándar dentro de la industria de la IA.

Los problemas de los detectores que no siempre aciertan

El problema no es único ni exclusivo de este detector404 Media hizo un experimento similar con una imagen publicada por The New York Times sobre un fotógrafo palestino asesinado por las bombas israelíes.

Otro detector, Maybe’s AI Art Detector, indicó que la fotografía había sido generada con una IA con un 52% de probabilidades.

Al menos en ese caso la respuesta en términos porcentuales permite a los usuarios seguir dudando de que el detector haya podido tener éxito en su análisis.

Cada cierto tiempo aparece un nuevo detector de imágenes IA o deepfakes. Sin embargo, su eficacia real dista de ser plena y absoluta. Tal vez no lo sea nunca. Esa situación preocupa especialmente en el mundo de la ciberseguridad. 

Ángela Barriga, ingeniera en Mobbeel, una empresa de inteligencia artificial despertó las alarmas en esta situación y afirmaron que detectar a estos nuevos replicantes no es una tarea sencilla.

A esta incertidumbre hay que sumar las respuestas de los chatbots basados en IA, como Google Bard, Bing Chat o ChatGPT Plus.

A pesar de que algunos de estos servicios se conectan a internet para buscar información y ofrecerla, aportan detalles llenos de inexactitudes e incluso hablan de treguas que nunca han existido en Oriente Medio.

La IA, hoy por hoy, es el mayor desafío al que se deben enfrentar quienes desean acabar con la desinformación y las noticias falsas en la red.

AHORA LEE: El enfrentamiento entre Israel y Hamás amenaza con golpear la bolsa de valores y generar inflación mundial

TAMBIÉN LEE: Hamás construyó una ciudad israelí simulada en Gaza y practicó su ataque a plena vista, pero Israel no reaccionó

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: