• Un informe de OpenAI encontró que existe sólo una pequeña posibilidad de que GPT-4 pueda usarse para ayudar a crear armas biológicas.
  • El informe proviene del equipo de "preparación" de OpenAI, que estudia los posibles riesgos "catastróficos" de la IA.
  • Los expertos han advertido previamente que se podría utilizar IA avanzada para ayudar a planificar ataques biológicos.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

OpenAI cree que existe una pequeña posibilidad de que ChatGPT pueda usarse para ayudar a crear armas biológicas.

La startup de inteligencia artificial dijo en un nuevo informe que su modelo GPT-4 proporcionó «como mucho un leve aumento» en la capacidad de crear armas biológicas; sin embargo, advirtió que los modelos futuros podrían ser más útiles para los «actores maliciosos» que buscan usar chatbots para ayudar a fabricarlas.

Los expertos han advertido que la IA podría usarse para facilitar ataques terroristas biológicos; ya sea ayudando a los terroristas a crear armas biológicas y químicas o ayudándolos a planificar sus ataques.

Un informe de Rand Corporation del año pasado encontró que los modelos de lenguaje grande (LLM) podrían usarse para ayudar a planificar ataques biológicos; sin embargo, dijo que no podían proporcionar instrucciones específicas para crear armas biológicas.

La idea de que la IA pueda utilizarse para crear armas biológicos preocupa a diversos expertos

Otros dentro de la industria tecnológica también han expresado alarma.

En las audiencias del comité del Senado el año pasado, el CEO de Anthropic, Dario Amodei, dijo que los modelos de IA pronto podrían proporcionar instrucciones para armas biológicas avanzadas. Por su parte, Mark Zuckerberg se enfrentó a afirmaciones de que el modelo Llama 2 de Meta proporcionaba un tutorial detallado sobre cómo crear ántrax.

El informe del equipo de «preparación» de OpenAI, que se formó el año pasado para estudiar los posibles efectos «catastróficos» que podrían surgir del desarrollo de IA avanzada, tenía como objetivo investigar esas preocupaciones.

Los investigadores reunieron a un grupo de 50 expertos en biología y 50 estudiantes que habían tomado al menos un curso universitario en biología. Después, los asignaron aleatoriamente a un grupo con acceso a GPT-4 o un grupo de control con acceso a internet.

A ambos se les asignó la tarea de intentar responder una serie de preguntas relacionadas con la creación de armas biológicas; incluida cómo sintetizarían el virus del Ébola, altamente infeccioso. El grupo GPT-4 tuvo acceso a una versión del modelo solo para investigación que, a diferencia de ChatGPT, tiene menos «barandales de seguridad», dijo.

El estudio encontró que, si bien aquellos con acceso a GPT-4 vieron un pequeño aumento en la precisión y el detalle en comparación con el grupo que usaba solo internet, el aumento no fue estadísticamente lo suficientemente significativo como para indicar un aumento real en el riesgo.

«Si bien este aumento no es lo suficientemente grande como para ser concluyente, nuestro hallazgo es un punto de partida para continuar la investigación y la deliberación de la comunidad», dijo OpenAI.

También aclaró que, dado el ritmo actual de innovación en IA, es posible que las versiones futuras de ChatGPT puedan «proporcionar beneficios considerables a los actores maliciosos».

OpenAI no respondió de inmediato a una solicitud de comentarios de Business Insider, realizada fuera del horario laboral.

AHORA LEE: OpenAI lanza GPT Store, una tienda en línea de chatbots personalizados

TAMBIÉN LEE: 12 consejos para hacer mejor uso de ChatGPT de OpenAI

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: