Your bank is using your money. You’re getting the scraps.WATCH FREE

Un estudio revela limitaciones de ChatGPT para responder consultas médicas

En esta publicación:

  • La precisión de ChatGPT al responder consultas médicas es alarmantemente baja, lo que representa riesgos potenciales para la salud de los usuarios.
  • Las referencias científicas inventadas socavan la confiabilidad de las respuestas médicas de ChatGPT.
  • Los usuarios deben tener precaución y consultar a profesionales de la salud para obtener asesoramiento médico preciso.

Investigadores de la Universidad de Long Island han descubierto las limitaciones de ChatGPT de OpenAI para abordar consultas médicas. Un estudio reciente reveló que el chatbot de IA solo respondía con precisión a una fracción de las consultas relacionadas con medicamentos, lo que genera preocupación sobre los posibles riesgos de confiar en este tipo de IA para obtener asesoramiento médico.

Precisión de las respuestas de ChatGPT

En un estudio realizado por investigadores de la Universidad de Long Island, se plantearon 39 preguntas relacionadas con medicamentos a ChatGPT, que representaban consultas reales del servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad. Las respuestas generadas por ChatGPT se compararon con las proporcionadas por farmacéuticos cualificados. Los resultados fueron poco alentadores, ya que ChatGPT solo proporcionó respuestas precisas a alrededor del 25 % de las preguntas. En los casos restantes, las respuestas fueron incompletas, inexactas o simplemente no respondieron adecuadamente a las preguntas.

Preocupaciones por la salud pública

Dado el rápido aumento de la popularidad de ChatGPT tras su lanzamiento en noviembre de 2022, han surgido inquietudes sobre su uso para consultas médicas. Sara Grossman, profesora asociada de práctica farmacéutica en la Universidad de Long Island y una de las autoras del estudio, expresó su preocupación de quedent, farmacéuticos y el público en general pudieran recurrir a ChatGPT para obtener información sobre salud y medicamentos. Desafortunadamente, el estudio reveló que muchas de las respuestas de la IA no solo eran inexactas, sino también potencialmente peligrosas.

Por ejemplo, en una pregunta sobre posibles interacciones farmacológicas entre el medicamento antiviral para la COVID-19 Paxlovid y el medicamento para bajar la presión arterial Verapamilo, ChatGPT proporcionó una respuesta inexacta, sugiriendo que no había efectos adversos. En realidad, la combinación de estos medicamentos puede provocar una caída significativa de la presión arterial, causando mareos y desmayos. Esta información engañosa podría poner en riesgo a las personas.

Ver también  Ethereum : ETH rechaza rápidamente los $3,200, ¿listo para superar los $3,300?

Referencias científicas cuestionables

Los investigadores también descubrieron que, al solicitar a ChatGPT referencias científicas para respaldar sus respuestas, la IA solo pudo proporcionar referencias para un número limitado de preguntas. Aún más preocupante, las referencias proporcionadas a menudo eran falsas, aparentemente legítimas. Estas citas falsas incluían URLs, un formato correcto e incluso referencias a revistas científicas de renombre. Sin embargo, tras la investigación, se hizo evidente que ChatGPT había creado estas referencias, lo que puso en duda la fiabilidad de su información.

En un caso, se solicitó a ChatGPT que proporcionara una tasa de conversión de dosis para el medicamento baclofeno para espasmos musculares al pasar de inyecciones espinales a dosis orales. La IA proporcionó una tasa de conversión junto con referencias a las recomendaciones de organizaciones médicas. Sin embargo, ninguna de estas organizaciones había establecido una tasa de conversión de dosis oficial, lo que hacía que la información de ChatGPT no fuera fiable. Además, la IA cometió un error crítico en el cálculo, lo que resultó en una recomendación de dosis 1000 veces inferior a la requerida. Este error podría provocar síntomas de abstinencia graves en los pacientes si un profesional de la salud lo sigue.

Los peligros de la desinformación

El estudio de la Universidad de Long Island no es el primero en plantear inquietudes sobre la capacidad de ChatGPT para generar citas ficticias al responder consultas médicas. Investigaciones anteriores también han puesto de relieve este problema, demostrando que la IA puede crear falsificaciones engañosas de referencias científicas, incluso atribuyéndolas a autores reales con publicaciones previas en revistas científicas.

Vea también:  Nuevo estudio revela la evolución de las tácticas de negacionismo climático en YouTube

Sara Grossman, quien tenía poca experiencia con ChatGPT antes del estudio, expresó su sorpresa por la capacidad de la IA para sintetizar información instantánea y condent. Las respuestas de la IA se presentaron de forma profesional y sofisticada, lo que podría generar en los usuarios una falsa sensación de confianza en la precisión de la información proporcionada.

La respuesta de OpenAI

En respuesta a estos hallazgos, OpenAI, la organización detrás de ChatGPT, recomendó a los usuarios no confiar en las respuestas de la IA como sustituto del consejo o tratamiento médico profesional. Las políticas de uso de OpenAI establecen explícitamente que los modelos de ChatGPT no están optimizados para proporcionar información médica y nunca deben utilizarse para servicios de diagnóstico o tratamiento de afecciones médicas graves.

Buscando información médica confiable

Si bien la conveniencia de ChatGPT y otras herramientas de IA similares es innegable, se insta a los consumidores a tener precaución al buscar información médica en línea. Sara Grossman recomendó usar sitios web gubernamentales como la página de MedlinePlus de los Institutos Nacionales de la Salud para obtener información confiable. Sin embargo, enfatizó que las respuestas en línea no deben reemplazar la orientación de los profesionales de la salud, ya que el caso de cada paciente es único y requiere atención personalizada.

El estudio realizado por la Universidad de Long Island sirve como un claro recordatorio de las limitaciones de la IA, especialmente en asuntos cruciales como la atención médica. Si bien la IA puede proporcionar información valiosa, nunca debe sustituir la experiencia y la orientación de profesionales de la salud cualificados. Las consecuencias de confiar en información inexacta o inventada pueden ser graves, lo que subraya la necesidad de vigilancia y discernimiento en la era digital.

No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis .

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron consultar dent un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan