• Un profesor contratado por OpenAI para probar GPT-4 dijo que la gente podría usarlo para hacer "química peligrosa".
  • Fue uno de los 50 expertos contratados por OpenAI el año pasado para examinar los riesgos de GPT-4.
  • Su investigación mostró que GPT-4 podría ayudar a los usuarios a escribir discursos de odio o incluso a encontrar armas sin licencia.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Un profesor contratado por OpenAI para probar GPT-4, que impulsa el chatbot ChatGPT, dijo que existe un «riesgo significativo» de que las personas lo usen para hacer «química peligrosa», en una entrevista con el Financial Times.

Andrew White, profesor asociado de ingeniería química en la Universidad de Rochester en Nueva York, fue uno de los 50 expertos contratados por OpenAI para probar la nueva tecnología durante un periodo de seis meses en 2022. El grupo de expertos —denominado «equipo rojo»— hizo preguntas peligrosas y provocativas a GPT-4 para examinar hasta dónde puede llegar.

White le dijo al FT que le pidió a GPT-4 que sugiriera un compuesto que pudiera actuar como un arma química. Usó «complementos», una nueva característica que permite que ciertas aplicaciones alimenten información en el chatbot, para extraer información de artículos científicos y directorios de fabricantes de productos químicos. Luego, el chatbot pudo encontrar un lugar para hacer el compuesto, dijo el FT.

«Creo que equipará a todos con una herramienta para hacer química más rápido y con mayor precisión», dijo White en la entrevista. «Pero también existe un riesgo significativo de que las personas… hagan química peligrosa. En este momento, eso existe».

GPT-4 también podría ayudar a escribir discursos de odio y a encontrar armas sin licencia en línea

Los hallazgos del equipo de 50 expertos se presentaron en un documento técnico sobre el nuevo modelo, que también mostró que GPT-4 podría ayudar a los usuarios a escribir discursos de odio y ayudarles a encontrar armas sin licencia en línea.

Los hallazgos de White y los demás evaluadores ayudaron a OpenAI a garantizar que estos problemas se modificaran antes de que GPT-4 se lance al público.

OpenAI no respondió de inmediato a la solicitud de comentarios de Insider realizada fuera del horario laboral habitual.

GPT-4 se lanzó en marzo y se describió como la tecnología de inteligencia artificial más avanzada de OpenAI. Esta puede aprobar el examen de la barra de abogados en EU u obtener un puntaje de 5 en algunos exámenes de colocación avanzada.

El CEO de Twitter, Elon Musk, y cientos de expertos, académicos e investigadores de IA firmaron una carta abierta el mes pasado para pedir una pausa de seis meses en el desarrollo de herramientas de IA más poderosas que GPT-4.

La carta decía que los poderosos sistemas de inteligencia artificial solo deberían desarrollarse «una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables».

AHORA LEE: Europol advierte sobre los riesgos que presenta ChatGPT para la ciberseguridad

TAMBIÉN LEE: La IA general podría destruir a los humanos o volverlos obsoletos, advierte inversionista

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: