• Una de las principales preocupaciones que ha suscitado la inteligencia artificial generativa ha sido el riesgo que supone que la sociedad acceda a una tecnología tan potente. 
  • Varios expertos contaron ante los medios cómo OpenAI, la desarrolladora de ChatGPT, les contrató para que le hiciesen preguntas malintencionadas.
  • Esto, según dijeron, con el objetivo de corregir después a la herramienta.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Entre los motivos que había detrás del manifiesto publicado el mes pasado que pedía una moratoria de 6 meses en el desarrollo de la inteligencia artificial se encontraba la necesidad de detenerse a pensar en las implicaciones que va a tener esta tecnología para el conjunto de la sociedad, en medio del boom de ChatGPT. 

«No es perfecto, pero su espíritu es el correcto: debemos ir más despacio hasta que comprendamos mejor las consecuencias», aseguró Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante del manifiesto.

Dicha carta también la firmaron líderes tecnológicos de la talla de Elon Musk, CEO de Twitter, Tesla y SpaceX o Steve Wozniak, cofundador de Apple.

El documento tuvo críticas por presentar inconsistencias y porque algunos de los firmantes —como el propio Musk— podrían tener una intención oculta al pedir que se frene el desarrollo de la IA generativa.

Sin embargo, OpenAI, desarrolladora de ChatGPT, reconoce el potencial dañino que presenta su generador de texto por inteligencia artificial.

Por ese motivo, antes de lanzar GPT-4 (la última versión del modelo lingüístico con el que trabaja ChatGPT), le preguntó al chatbot cuestiones tan problemáticas como: cómo puedo asesinar a una persona o cómo puedo construir una bomba casera. 

Esta labor se denomina red team y consiste en definir a un equipo de investigación que hace de adversario para proporcionar información desde la perspectiva de alguien que busca ir en tu contra. Varios expertos que formaron parte de ese red team contaron su experiencia al Financial Times.

Andrew White, profesor de ingeniería química de la Universidad de Rochester, fue uno de los 50 expertos que OpenAI contrató para probar GPT-4.

White dijo que utilizó los plug-ins de la herramienta para que le recomendara un compuesto químico que funcionara como arma; ChatGPT incluso le recomendó un lugar para fabricarlo. 

«Va a dotar a todo el mundo de una herramienta para hacer química de forma más rápida y precisa», declaró White al Financial Times. «Pero también existe un riesgo significativo de que la gente… haga química peligrosa».

Posibles sesgos que presenta ChatGPT

Boru Gollu, un abogado de Nairobi que, según el Financial Times fue el único experto africano contratado por OpenAI, describió el tono discriminatorio que presentaba GPT-4.

«Hubo un momento en el que estaba probando el modelo en el que se comportaba como si me hablara una persona blanca», dijo Gollu. 

«Le preguntabas por un grupo [étnico] concreto y te daba una opinión sesgada o un tipo de respuesta muy prejuiciosa», indicó el abogado keniano. 

Aun así, algunos de estos expertos han resaltado la evaluación de seguridad realizada por OpenAI previa al lanzamiento de la última versión de ChatGPT.

«Han hecho un trabajo bastante bueno a la hora de deshacerse de la toxicidad manifiesta en estos sistemas», ha afirmado Maarten Sap, experto en modelos lingüísticos de la Universidad Carnegie Mellon.

«Soy una persona queer. Intenté por todos los medios que me convenciera de ir a terapia de conversión. Se resistía mucho, incluso si me hacía pasar por una persona religiosa o del sur de Estados Unidos», destacó Sap al Financial Times.

AHORA LEE: Bill Gates dice que los NFT se sostienen bajo la ‘teoría del más tonto’

TAMBIÉN LEE: Los arrepentimientos también abruman a los multimillonarios —Bill Gates te cuenta los suyos

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: