• El año pasado, investigadores de la Universidad de Long Island desafiaron a ChatGPT con preguntas reales relacionadas con los medicamentos.
  • El chatbot produjo respuestas falsas o incompletas a 29 de 39 preguntas.
  • OpenAI aconseja a los usuarios que no utilicen sus herramientas, incluido ChatGPT, para obtener información médica.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Se ha demostrado una vez más que ChatGPT de OpenAI es una herramienta poco confiable en algunas situaciones médicas y terminó proporcionando información falsa o incompleta sobre consultas reales relacionadas con medicamentos, según un nuevo estudio.

La Sociedad Estadounidense de Farmacéuticos del Sistema de Salud presentó el estudio en su Reunión Clínica de Medio Año entre el 3 y el 7 de diciembre en Anaheim, California, según un comunicado publicado el martes.

El estudio se llevó a cabo entre 2022 y 2023 y planteó preguntas a ChatGPT que habían llegado a través del servicio de información sobre medicamentos de la Facultad de Farmacia de la Universidad de Long Island durante un periodo de 16 meses.

El estudio fue dirigido por Sara Grossman, profesora asociada de práctica farmacéutica en la Universidad de Long Island.

Los farmacéuticos involucrados en el estudio investigaron y respondieron 45 preguntas; las respuestas fueron examinadas por un segundo investigador, y finalmente se eliminaron seis preguntas. Las respuestas proporcionaron un criterio base según el cual se compararían las respuestas producidas por ChatGPT.

Los investigadores descubrieron que ChatGPT sólo proporcionó una respuesta satisfactoria de acuerdo con los criterios a 10 de las 39 preguntas. Para las otras 29 preguntas, ChatGPT no abordó directamente la pregunta o proporcionó una respuesta incorrecta o incompleta.

Los investigadores también pidieron a ChatGPT que produjera referencias para verificar la información. Esto sólo se proporcionó en ocho de sus respuestas y cada una incluía referencias inexistentes.

Las personas no deberían consultar a ChatGPT sobre medicamentos u otras cuestiones médicas

«Los profesionales de la salud y los pacientes deben tener cuidado al utilizar ChatGPT como fuente autorizada de información relacionada con los medicamentos», dijo Grossman en el comunicado. «Cualquiera que utilice ChatGPT para obtener información relacionada con medicamentos debe verificar la información utilizando fuentes confiables».

Una de las preguntas fue sobre si existe una interacción farmacológica entre el antiviral para covid-19 Paxlovid y el medicamento para bajar la presión arterial verapamilo. ChatGPT respondió que no se habían informado interacciones para esta combinación de medicamentos.

«En realidad, estos medicamentos tienen el potencial de interactuar entre sí, y el uso combinado puede resultar en una reducción excesiva de la presión arterial», afirmó Grossman. «Sin conocimiento de esta interacción, un paciente puede sufrir un efecto secundario no deseado y prevenible».

ChatGPT fue lanzado por OpenAI en noviembre de 2022 y ha dividido opiniones en el mundo médico sobre si es una fuente confiable de información.

El chatbot tiene algunas estadísticas impresionantes en su haber, incluida la aprobación de las tres partes del examen de licencia médica de los Estados Unidos. También aprobó un examen final de razonamiento clínico de la Escuela de Medicina de Stanford.

En un caso, los expertos médicos prefirieron las respuestas de ChatGPT a las preguntas de los pacientes a las de los médicos 78.6% del tiempo porque era más empático.

Sin embargo, el chatbot puede producir respuestas plagadas de errores. De hecho, en un caso, elaboró un plan de tratamiento contra el cáncer que mezclaba información correcta e incorrecta.

La política de uso de OpenAI describe que sus herramientas de IA «no están ajustadas para proporcionar información médica. Nunca debe utilizar nuestros modelos para proporcionar servicios de diagnóstico o tratamiento para afecciones médicas graves».

AHIORA LEE: Ponerse sentimental con ChatGPT podría brindar mejores resultados

TAMBIÉN LEE: Los ‘prompts’ que hacen que la inteligencia artificial se salte los límites legales

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: