• Es difícil encontrar una forma de detectar con precisión la escritura generada por herramientas de inteligencia artificial como ChatGPT
  • La nueva herramienta se llama "Binoculars" y supera a herramientas de detección como GPTZero y Ghostbuster.
  • "Binoculars" no recibió entrenamiento como los modelos de IA, ni puede detectar si el texto es directamente de ChatGPT, pero sí fue entrando para funcionar mejor que cualquier otra herramienta comercial.
  • ¡Estamos en Instagram! Síguenos.

Un grupo de investigadores dice que creó una herramienta de alta precisión para identificar texto producido por aplicaciones de inteligencia artificial y Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés).

En un artículo publicado el lunes, ocho investigadores, en su mayoría de la Universidad de Maryland, dijeron que s herramienta denominada Binoculars superó el desempeño de otras disponibles.

Entre estas herramientas a las que superó están GPTZero y Ghostbuster, diseñadas para detectar escritura generada por aplicaciones de inteligencia artificial como ChatGPT de OpenAI. 

Los investigadores probaron Binoculars en grandes conjuntos de datos de redacción de noticias, escritura creativa y ensayos de estudiantes. Dijeron que la herramienta detectó «más de 90%» de las muestras de conjuntos de datos escritas por IA, con una tasa de precisión del 99.9%, o una tasa de falsos positivos del 0.01%.

¿Los ensayos escolares sí están escritos por estudiantes o por robots?

A medida que las herramientas de IA generativa como ChatGPT ganan popularidad, aumenta la preocupación por el hecho de que los estudiantes utilicen la IA para completar el trabajo académico y engañar a sus profesores.

Al mismo tiempo, muchos estudiantes fueron acusados ​​erróneamente de utilizar IA, que se basan en los resultados de las herramientas de detección de IA. Esto generó preocupaciones de que se estuviera acusando injustamente a las personas de hacer trampa

El año pasado, las escuelas y universidades comenzaron a desactivar estas herramientas de detección de IA. Cuando la Universidad de Vanderbilt dijo que había decidido dejar de usar Turnitin, citó la tasa de falsos positivos de la herramienta de detección del 1%; significaría que cientos de estudiantes serían acusados ​​de hacer trampa, cuando no fue así.

Otras de las preocupaciones sobre el texto generado por IA incluyen la proliferación de reseñas falsas e información política incorrecta.

Binoculars, está a punto de cambiar la historia

Los investigadores de Binoculars afirmaron que se genera una tasa de falsos positivos mucho menor con la nueva herramienta. El equipo dijo que espera que Binoculars sea un producto todavía más útil, del que puedan vender licencias.

«El lanzamiento temprano de productos defectuosos llevó a las personas a pensar que la detección de LLM es imposible, o que los detectores de LLM nunca pueden funcionar lo suficientemente bien como para ser útiles», dijo Abhimanyu Hans, investigador de la Universidad de Maryland a Business Insider

«La realidad es que la investigación científica sobre la detección de LLM ha logrado grandes avances en los últimos seis meses y llegó al punto en que se puede utilizar de forma eficaz para algunas aplicaciones», agregó.

Los investigadores trabajan para la Universidad de Maryland, así como para la Universidad Carnegie Mellon, la Universidad de Nueva York y el Centro de IA de Tübingen. La investigación la financió Capital One, el programa Amazon Research Awards y Open Philanthropy; dirigido por el dúo multimillonario Dustin Moskoovitz y Cari Tuna.

Binoculars podría cuidar la integridad de las plataformas de IA

Los investigadores probaron Binoculars con modelos de inteligencia artificial de código abierto como Llama de Meta y Falcon de Abu Dhabi. Además, lo probaron con datos que constan de partes iguales de texto escrito por humanos y texto escrito por ChatGPT.

Los investigadores dijeron que Binoculars no recibió ningún soporte, ni ajustes o entrenamiento como los modelos de IA para que funcione dirigido por las instrucciones de cualquiera, pero «sí fue entrando para funcionar mejor que otros sistemas de detección comerciales», ya que puede detectar el texto generado por ChatGPT.

Los investigadores que, aunque puede detectar textos que se generaron por inteligencia artificial, su modelo de detección «todavía no se ajusta ni se entrena para detectar si el texto fue creado en ChatGPT en particular»; por lo tanto es «independiente del modelo» en sus capacidades de detección, algo que es «crítico para la moderación de las redes sociales y la garantía de la integridad de la plataforma».

Hans dijo que si bien él y sus colegas de investigación estaban «en conflicto sobre el uso de detectores LLM en las escuelas», están «motivados por el uso de detectores LLM por parte de los equipos de integridad de plataformas de los principales sitios web». Agregó que esto es para «mantener las campañas de ingeniería social, las elecciones manipulación y spam en las redes sociales».

Cómo funciona Binoculars

Los investigadores dijeron en su artículo que su modelo «opera completamente en una configuración de disparo cero». 

El disparo cero en el aprendizaje automático, se refiere a la respuesta de un modelo a palabras u objetos para los que no se entrenó.

«Al mismo tiempo, debido a la naturaleza de disparo cero de nuestro detector, puede detectar múltiples LLM diferentes con alta precisión, algo que todas las soluciones existentes no logran», dice el documento.

Binoculars funciona comparando dos etapas, la primera es «ver texto», una usando un LLM de «observador» y otra usando uno para «ejecutar». 

Identificar a la máquina

Si una máquina escribe cadenas de texto, las perplejidades de ambas etapas deberían ser similares; si un humano escribió el texto, debería ser diferente. La perplejidad se refiere a cuán sorprendido está un LLM por una predicción, como la siguiente palabra de una oración.

Cuanto menos sorprendidos estén ambos LLM por una cadena de texto, más probable será que la herramienta decida que el texto proviene de una máquina.

«La perplejidad se ha utilizado para detectar LLM, ya que los humanos producen textos más sorprendentes que los LLM», decía el artículo.

Los investigadores dijeron que su método «también mide qué tan sorprendente es el resultado de un modelo para otro». En el artículo se refirieron a esto como «perplejidad cruzada».

Los investigadores dijeron que el método de Binoculars corrige el papel que juega una persona que activa una herramienta de IA; esto produce que se identifique como una causa de falsos positivos en las herramientas de detección de IA.

«Binoculars separa el texto humano y el de la máquina mucho mejor que la perplejidad por sí sola», decía el artículo.

«Con Binculars, podemos detectar texto generado por máquinas en varios dominios», agregó. Esos dominios incluían Reddit, WikiHow, Wikipedia y arXiv.

Los investigadores dijeron que también la probaron en un conjunto de datos de ensayos académicos de hablantes no nativos de inglés; observaron una preocupación entre los investigadores, ya que los detectores de IA contienen sesgos contra ese tipo de escritura y son más propensos a considerar que están generados por IA. 

Dijeron que la nueva herramienta tiene una tasa de precisión del 99.67% con este tipo de texto.

AHORA LEE: Cómo una editorial francesa usará un sello para certificar que sus libros son escritos por humanos y no por la IA

TAMBIÉN LEE: Estos son 3 de los libros favoritos de Bill Gates de 2023 —y su playlist navideña

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: