Investigadores de la Universidad de Long Island han descubierto las limitaciones de ChatGPT de OpenAI para abordar consultas médicas. Un estudio reciente reveló que el chatbot de IA solo respondía con precisión a una fracción de las consultas relacionadas con medicamentos, lo que genera preocupación sobre los posibles riesgos de confiar en este tipo de IA para obtener asesoramiento médico.
Precisión de las respuestas de ChatGPT
En un estudio realizado por investigadores de la Universidad de Long Island, se plantearon 39 preguntas relacionadas con medicamentos a ChatGPT, que representaban consultas reales del servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad. Las respuestas generadas por ChatGPT se compararon con las proporcionadas por farmacéuticos cualificados. Los resultados fueron poco alentadores, ya que ChatGPT solo proporcionó respuestas precisas a alrededor del 25 % de las preguntas. En los casos restantes, las respuestas fueron incompletas, inexactas o simplemente no respondieron adecuadamente a las preguntas.
Preocupaciones por la salud pública
Dado el rápido aumento de la popularidad de ChatGPT tras su lanzamiento en noviembre de 2022, han surgido inquietudes sobre su uso para consultas médicas. Sara Grossman, profesora asociada de práctica farmacéutica en la Universidad de Long Island y una de las autoras del estudio, expresó su preocupación de quedent, farmacéuticos y el público en general pudieran recurrir a ChatGPT para obtener información sobre salud y medicamentos. Desafortunadamente, el estudio reveló que muchas de las respuestas de la IA no solo eran inexactas, sino también potencialmente peligrosas.
Por ejemplo, en una pregunta sobre posibles interacciones farmacológicas entre el medicamento antiviral para la COVID-19 Paxlovid y el medicamento para bajar la presión arterial Verapamilo, ChatGPT proporcionó una respuesta inexacta, sugiriendo que no había efectos adversos. En realidad, la combinación de estos medicamentos puede provocar una caída significativa de la presión arterial, causando mareos y desmayos. Esta información engañosa podría poner en riesgo a las personas.
Referencias científicas cuestionables
Los investigadores también descubrieron que, al solicitar a ChatGPT referencias científicas para respaldar sus respuestas, la IA solo pudo proporcionar referencias para un número limitado de preguntas. Aún más preocupante, las referencias proporcionadas a menudo eran falsas, aparentemente legítimas. Estas citas falsas incluían URLs, un formato correcto e incluso referencias a revistas científicas de renombre. Sin embargo, tras la investigación, se hizo evidente que ChatGPT había creado estas referencias, lo que puso en duda la fiabilidad de su información.
En un caso, se solicitó a ChatGPT que proporcionara una tasa de conversión de dosis para el medicamento baclofeno para espasmos musculares al pasar de inyecciones espinales a dosis orales. La IA proporcionó una tasa de conversión junto con referencias a las recomendaciones de organizaciones médicas. Sin embargo, ninguna de estas organizaciones había establecido una tasa de conversión de dosis oficial, lo que hacía que la información de ChatGPT no fuera fiable. Además, la IA cometió un error crítico en el cálculo, lo que resultó en una recomendación de dosis 1000 veces inferior a la requerida. Este error podría provocar síntomas de abstinencia graves en los pacientes si un profesional de la salud lo sigue.
Los peligros de la desinformación
El estudio de la Universidad de Long Island no es el primero en plantear inquietudes sobre la capacidad de ChatGPT para generar citas ficticias al responder consultas médicas. Investigaciones anteriores también han puesto de relieve este problema, demostrando que la IA puede crear falsificaciones engañosas de referencias científicas, incluso atribuyéndolas a autores reales con publicaciones previas en revistas científicas.
Sara Grossman, quien tenía poca experiencia con ChatGPT antes del estudio, expresó su sorpresa por la capacidad de la IA para sintetizar información instantánea y condent. Las respuestas de la IA se presentaron de forma profesional y sofisticada, lo que podría generar en los usuarios una falsa sensación de confianza en la precisión de la información proporcionada.
La respuesta de OpenAI
En respuesta a estos hallazgos, OpenAI, la organización detrás de ChatGPT, recomendó a los usuarios no confiar en las respuestas de la IA como sustituto del consejo o tratamiento médico profesional. Las políticas de uso de OpenAI establecen explícitamente que los modelos de ChatGPT no están optimizados para proporcionar información médica y nunca deben utilizarse para servicios de diagnóstico o tratamiento de afecciones médicas graves.
Buscando información médica confiable
Si bien la conveniencia de ChatGPT y otras herramientas de IA similares es innegable, se insta a los consumidores a tener precaución al buscar información médica en línea. Sara Grossman recomendó usar sitios web gubernamentales como la página de MedlinePlus de los Institutos Nacionales de la Salud para obtener información confiable. Sin embargo, enfatizó que las respuestas en línea no deben reemplazar la orientación de los profesionales de la salud, ya que el caso de cada paciente es único y requiere atención personalizada.
El estudio realizado por la Universidad de Long Island sirve como un claro recordatorio de las limitaciones de la IA, especialmente en asuntos cruciales como la atención médica. Si bien la IA puede proporcionar información valiosa, nunca debe sustituir la experiencia y la orientación de profesionales de la salud cualificados. Las consecuencias de confiar en información inexacta o inventada pueden ser graves, lo que subraya la necesidad de vigilancia y discernimiento en la era digital.

