Um estudo recente da Faculdade de Medicina Elson S. Floyd da Universidade Estadual de Washington fornece informações importantes sobre as possíveis barreiras à inteligência artificial ( IA ) em situações médicas de emergência. No publicado na PLOS One, os autores exploraram as capacidades do programa ChatGPT da OpenAI para avaliar o risco cardíaco de pacientes simulados em casos de dor no peito.
Conclusões inconsistentes
Os resultados apontam para um nívelmatic de variabilidade nas conclusões do ChatGPT quando os mesmos dados de pacientes são inseridos. De acordo com o Dr. Thomas Heston, pesquisador principal, o ChatGPT não funciona de forma consistente. Ao exibir exatamente os mesmos dados, o ChatGPT apresentava um risco baixo na primeira vez, um risco intermediário na segunda vez e, às vezes, até mesmo uma classificação de alto risco.
Essa lacuna é muito séria em casos críticos com risco de vida, pois, nessas situações, avaliações essenciais e objetivas são cruciais para que o profissional de saúde tome a atitude correta e adequada. Pacientes podem apresentar dor no peito devido a diversas doenças. Portanto, o médico precisa examinar o paciente rapidamente e iniciar o tratamento oportuno para garantir o cuidado apropriado.
O estudo também constatou que o desempenho do ChatGPT foi fraco em comparação com os métodos tradicionais usados pelos médicos para avaliar o risco cardíaco dos pacientes. Atualmente, os médicos utilizam um método de lista de verificação de duas vias para avaliar os pacientes de acordo com os protocolos TIMI e HEART, que são indicadores da gravidade da doença cardíaca.
No entanto, ao fornecer variáveis como as exibidas nas escalas TIMI e HEART como entradas, observou-se uma maior discordância com as pontuações do ChatGPT, com taxas de concordância de 45% e 48% para as respectivas escalas. Suponha que essa diversidade seja encontrada na tomada de decisões da IA em casos médicos de alto risco. Nesse caso, isso leva a questionar a confiabilidade da IA, pois são justamente essas situações críticas que dependem de decisões consistentes e precisas.
Abordando as limitações e o potencial da IA na área da saúde
O Dr. Heston destacou a capacidade da IA de aprimorar o suporte à saúde e enfatizou a necessidade de conduzir um estudo minucioso para excluir defiinerentes à tecnologia. A IA pode ser uma ferramenta necessária, mas estamos avançando mais rápido do que compreendemos. Portanto, devemos investir em muita pesquisa, especialmente em situações clínicas comuns.
dent, os resultados da pesquisa confirmaram a importância dos enfermeiros humanos nesses contextos, embora a tecnologia de IA também tenha demonstrado algumas vantagens. Considere o exemplo de uma emergência, durante a qual especialistas em saúde digital poderiam analisar o prontuário médico completo de um paciente, utilizando a capacidade do sistema para oferecer apenas as informações pertinentes com a máxima eficiência. Além disso, a IA pode participar tanto da geração de diagnósticos diferenciais quanto da análise de casos complexos junto aos médicos. Isso ajudará os médicos a conduzirem o processo diagnóstico com mais eficiência.
No entanto, ainda existem alguns problemas, segundo o Dr. Heston.
"Ele pode ser muito bom para ajudar a pensar no diagnóstico diferencial de algo que você desconhece, e provavelmente essa é uma de suas maiores vantagens. Quer dizer, você pode pedir os cinco principais diagnósticos e as evidências que os sustentam, então ele pode ser muito útil para ajudar a analisar o problema, mas não consegue dar uma resposta definitiva."
Em um mundo onde a inteligência artificial está em constante evolução, é fundamental avaliar profundamente seu desempenho, especialmente em situações de alto risco como na área da saúde, para garantir a segurança dos pacientes e otimizar a tomada de decisões médicas.

