Un estudio reciente de la Facultad de Medicina Elson S. Floyd de la Universidad Estatal de Washington aporta información clave sobre las posibles barreras para la inteligencia artificial ( IA ) en situaciones de emergencia médica. En el publicado en PLOS One, los autores exploraron las capacidades del programa ChatGPT de OpenAI para determinar el riesgo cardíaco de pacientes simulados con dolor torácico.
Conclusiones inconsistentes
Los resultados evidencian una variabilidadmatic en las conclusiones de ChatGPT al introducir los mismos datos del paciente. Según el Dr. Thomas Heston, investigador principal, ChatGPT no funciona de forma consistente. Al presentar los mismos datos, ChatGPT asigna un riesgo bajo la primera vez, un riesgo intermedio la segunda, e incluso, en ocasiones, una calificación de alto riesgo.
Esta brecha es muy grave en casos críticos que ponen en peligro la vida, ya que en estos casos, las evaluaciones esenciales y objetivas son de suma importancia para que el personal médico pueda tomar las medidas precisas y adecuadas. Los pacientes pueden experimentar dolor torácico debido a diversas enfermedades. Por lo tanto, el médico debe examinar al paciente rápidamente y brindarle un tratamiento oportuno para proporcionarle la atención adecuada.
El estudio también reveló que el rendimiento de ChatGPT era deficiente en comparación con los métodos tradicionales que utilizan los médicos para evaluar el riesgo cardíaco de los pacientes. Actualmente, los médicos emplean un método de lista de verificación de dos caras para evaluar a los pacientes, basándose aproximadamente en los protocolos TIMI y HEART, que indican la gravedad de la enfermedad cardíaca del paciente.
Sin embargo, al introducir variables como las de las escalas TIMI y HEART, ChatGPT mostró una mayor discrepancia con las puntuaciones, con un índice de concordancia del 45 % y el 48 % para dichas escalas. Supongamos que esta diversidad se observa en la toma de decisiones de la IA en casos médicos de alto riesgo. En ese caso, cabe cuestionar la fiabilidad de la IA, ya que son precisamente estas situaciones críticas las que dependen de decisiones coherentes y precisas.
Abordar las limitaciones y el potencial de la IA en la atención médica
El Dr. Heston destacó la capacidad de la IA para mejorar el apoyo sanitario e hizo hincapié en la necesidad de realizar un estudio exhaustivo para descartar defiinherentes. La IA puede ser una herramienta necesaria, pero avanzamos más rápido de lo que comprendemos. Por lo tanto, debemos investigar a fondo, especialmente en situaciones clínicas comunes.
dent, los resultados de la investigación han confirmado la importancia del personal de enfermería en estos entornos, si bien la tecnología de IA también ha demostrado algunas ventajas. Por ejemplo, en una emergencia, los especialistas en salud digital podrían revisar el historial médico completo del paciente, aprovechando así la capacidad del sistema para ofrecer únicamente la información pertinente con la máxima eficiencia. Además, la IA puede participar en la elaboración de diagnósticos diferenciales y en el análisis conjunto de los casos complejos con los médicos. Esto les permitirá avanzar con mayor eficacia en el proceso diagnóstico.
No obstante, según el Dr. Heston, aún quedan algunos problemas.
“Puede ser muy útil para ayudarte a elaborar el diagnóstico diferencial de algo que desconoces, y probablemente sea una de sus mayores fortalezas. Es decir, podrías pedirle los cinco diagnósticos principales y la evidencia que respalda cada uno, por lo que podría ser muy útil para ayudarte a analizar el problema, pero simplemente no puede dar la respuesta directa.”
En un entorno donde la IA está en constante evolución, es de vital importancia evaluar su rendimiento en profundidad, quizás especialmente en situaciones de alto riesgo como la atención sanitaria, para proteger a los pacientes y optimizar la toma de decisiones médicas.

