• La popularidad de ChatGPT está despertando preocupaciones sobre el contenido generado por IA.
  • Varios investigadores han desarrollado herramientas para detectar videos o textos creados por esta tecnología.
  • Pasos simples como verificar su fuente son cruciales para el consumidor de medios promedio, dijo uno a Insider.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Las preocupaciones sobre los programas de inteligencia artificial que se hacen cargo de los trabajos o los robots que se vuelven deshonestos no son nada nuevo. Pero el debut de ChatGPT de OpenAI y el chatbot Bing de Microsoft ha vuelto a poner algunos de esos temores en la mente del público en general, y por una buena razón.

Los profesores están atrapando a los estudiantes haciendo trampa con ChatGPT; los trabajos que inicialmente se pensaba que requerían el juicio de un ser humano pronto podrían estar en la mira y, como tantos otros modelos de inteligencia artificial, las herramientas como ChatGPT todavía están plagadas de prejuicios.

También existe la amenaza cada vez mayor de la desinformación, que puede ser aún más potente con los chatbots de inteligencia artificial.

Riesgos y usos prácticos de la inteligencia artificial

Chelsea Finn, profesora asistente de informática en la Universidad de Stanford y miembro del equipo de robótica de Google Brain, ve casos de uso válidos para herramientas como ChatGPT.

«Son herramientas útiles para ciertas cosas cuando nosotros mismos sabemos la respuesta correcta, y solo estamos tratando de usarlas para acelerar nuestro propio trabajo o para editar texto, por ejemplo, que hemos escrito», dijo a Insider. «Hay usos razonables para ellos».

La preocupación para Finn es cuando la gente comienza a creer todo lo que producen estos modelos y cuando los malos actores usan las herramientas para influir deliberadamente en la percepción pública.

«Gran parte del contenido que generan estas herramientas es inexacto», dijo Finn. «La otra cosa es que este tipo de modelos podrían ser utilizados por personas que no tienen las mejores intenciones y tratan de engañar a la gente».

Los investigadores ya han desarrollado algunas herramientas para detectar contenido generado por IA y afirman que tienen tasas de precisión de hasta 96%.

Las herramientas solo mejorarán, dijo Finn; sin embargo, la responsabilidad recaerá en el público para estar constantemente atento a lo que ve en internet.

Esto es lo que puede hacer para detectar contenido generado por inteligencia artificial.

Existen varias herramientas de detección de contenido generado por inteligencia artificial

Hay varias herramientas disponibles para el público que pueden detectar texto generado por modelos de lenguaje grande (LLM, por sus siglas en inglés), el nombre más formal para chatbots como ChatGPT.

OpenAI, que desarrolló ChatGPT, tiene un clasificador de inteligencia artificial que tiene como objetivo distinguir entre texto escrito por humanos y por IA, así como una demo de detección más antigua. Un profesor que habló con Insider usó esta última herramienta para determinar que el ensayo de un estudiante tenía 99% de probabilidades de ser generado por IA.

Eric Anthony Mitchell, estudiante de posgrado en ciencias de la computación en Stanford, y sus colegas desarrollaron un detector de ChatGPT llamado acertadamente DetectGPT. Finn actuó como asesor del proyecto. En enero se publicó una demostración y un artículo sobre la herramienta.

Todas estas herramientas están en sus primeras etapas, tienen diferentes enfoques para la detección y tienen sus limitaciones únicas, dijo Finn.

Hay esencialmente dos clases de herramientas, explicó. Uno se basa en recopilar grandes cantidades de datos —escritos por personas y modelos de aprendizaje automático— y luego entrenar la herramienta para distinguir entre el texto y la herramienta de inteligencia artificial.

El gran reto

El desafío detrás de este enfoque es que se basa en una gran cantidad de «datos representativos», dijo Finn. Esto se convierte en un problema si, por ejemplo, la herramienta solo recibe datos escritos en inglés o datos que en su mayoría están escritos en un lenguaje coloquial.

Si alimentaras esta herramienta con texto en español o un texto técnico como algo de una revista médica, esta tendría dificultades para detectar contenido generado por IA.

OpenAI agrega la advertencia de que su clasificador «no es totalmente confiable» en textos cortos de menos de 1,000 caracteres y textos escritos en otros idiomas además del inglés.

La segunda clase de herramientas se basa en la propia predicción del modelo de lenguaje grande de un texto generado por IA o humano. Es casi como preguntarle a ChatGPT si un texto es generado por IA o no. Básicamente, así es como funciona DetectGPT de Mitchell.

«Una de las grandes ventajas de este enfoque es que no tiene que recopilar el conjunto de datos representativo, en realidad solo mira las predicciones del propio modelo», dijo Finn.

La limitación es que necesitas tener acceso a un modelo representativo, que no siempre está disponible públicamente, explicó Finn. En otras palabras, los investigadores necesitan acceder a un modelo como ChatGPT para poder ejecutar pruebas en las que «pidan» al programa que detecte texto humano o generado por IA.

ChatGPT no está disponible públicamente para que los investigadores prueben el modelo en este momento.

Mitchell y sus colegas informan que su herramienta identificó con éxito texto generado por un modelo de lenguaje extenso 95% de las veces.

Finn dijo que cada herramienta tiene sus pros y sus contras, pero la pregunta principal es qué tipo de texto se está evaluando. DetectGPT tenía una precisión similar a la primera clase de herramientas de detección; sin embargo, cuando se trataba de textos técnicos, DetectGPT funcionaba mejor.

Cómo detectar Deepfakes: los ojos y las venas brindan pistas

También hay herramientas para detectar deepfakes, un acrónimo de «deep learning» y «fake» (falso) que se refiere a imágenes, videos o audio creados digitalmente.

El análisis forense de imágenes es un campo que existe desde hace mucho tiempo, dijo Finn. Desde el siglo XIX, las personas podían manipular imágenes usando combinaciones de varias fotos, y luego vino Photoshop.

Investigadores de la Universidad de Buffalo desarrollaron una herramienta para detectar imágenes deepfake con 94% de efectividad. La herramienta observa de cerca los reflejos en los ojos de las personas en el video. Si el reflejo es diferente, entonces es una señal de que la foto fue renderizada digitalmente.

Microsoft anunció su propio detector de deepfake llamado Microsoft Video Authenticator antes de las elecciones de 2020 para detectar información errónea. La empresa probó la herramienta con Project Origin, una iniciativa que trabaja con un equipo de organizaciones de medios, incluidas la BBC y el New York Times, para brindarles a los periodistas las herramientas para rastrear la fuente de origen de los videos.

Según la compañía de tecnología, el detector examina de cerca las pequeñas imperfecciones en el borde de una imagen falsa que el ojo humano no puede detectar.

Desenmascarar a la inteligencia artificial

El año pasado, Intel anunció su detector de falsificación profunda «en tiempo real», FakeCatcher, y dijo que tiene una tasa de precisión del 96%. La herramienta puede observar el «flujo de sangre» de un humano real en un video para determinar la autenticidad de un video.

“Cuando nuestros corazones bombean sangre, nuestras venas cambian de color. Estas señales de flujo sanguíneo se recogen de todo el rostro y los algoritmos traducen estas señales en mapas espaciotemporales”, escribió Intel. «Luego, usando aprendizaje profundo, podemos detectar instantáneamente si un video es real o falso».

Las herramientas de detección son una ciencia en evolución. A medida que mejoran los modelos como ChatGPT o las aplicaciones deepfake, las herramientas para detectarlas también tienen que mejorar.

«A diferencia de otros problemas, este cambia constantemente», dijo Ragavan Thurairatnam, fundador de la empresa de tecnología Dessa, al New York Times en una historia sobre la lucha de las empresas de internet contra los deepfake.

Otras maneras de detectar contenido generado por IA

La efectividad de las herramientas de detección todavía depende del mejor juicio de un individuo.

Darren Hick, profesor de filosofía de la Universidad de Furman, le dijo anteriormente a Insider que recurrió a un detector ChatGPT para un ensayo de estudiante solo después de notar que el documento estaba bien escrito pero «no tenía sentido» y estaba «totalmente equivocado».

Como dijo Finn, ChatGPT puede ser útil cuando el usuario ya sabe la respuesta correcta. Para los consumidores promedio de medios, el viejo adagio de verificar la fuente sigue siendo importante.

«Creo que es bueno tratar de no creer todo lo que lees o ves», dijo Finn. «Ya sea información de un modelo de lenguaje grande, de una persona o de internet».

Las redes sociales hacen que el consumo de medios sea una experiencia fluida, por lo que es importante que los usuarios hagan una pausa por un momento y verifiquen la cuenta o el medio desde el que están viendo una noticia, especialmente si se trata de algo sensacional o particularmente impactante, según la guía de la Universidad de Washington en St. Louis para detectar noticias falsas.

Los espectadores deben preguntarse si están viendo un video o texto de una página de memes, un sitio de entretenimiento, la cuenta de una persona o un medio de noticias. Después de ver una información en línea y confirmar la fuente, es útil comparar qué más hay sobre ese tema con otras fuentes confiables, según la guía de la universidad.

Cuando se trata de videos o imágenes generados por IA, también hay señales visuales que el ojo humano puede detectar. Se ha informado que la IA tiene problemas para dibujar manos o dientes.

Detalles reveladores de una inteligencia artificial

«Por lo general, hay algunos artefactos pequeños, tal vez en los ojos de las personas; o, si está en un video, la forma en que mueven la boca parece un poco irreal», dijo Finn.

La aplicación de edición de fotos LensaAI —que se hizo popular recientemente con su función Magic Avatar— tenía la costumbre de dejar «firmas fantasma» en la esquina de sus retratos generados por IA. Esto se debe a que la herramienta se entrenó en imágenes preexistentes, en las que los artistas a menudo dejaban sus firmas en algún lugar de sus pinturas, informó ARTnews.

«En este momento, todavía es posible detectar algunos de estos si estás buscando bien», dijo Finn. «Dicho esto, a la larga, sospecho que este tipo de modelos de aprendizaje automático probablemente mejorarán; a su vez, es posible que no sea una manera confiable de detectar imágenes y videos en el futuro».

AHORA LEE: La revolución de la inteligencia artificial llega a tu correo electrónico

TAMBIÉN LEE: Un artista japonés lanzará el primer manga creado con inteligencia artificial

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: