Pesquisadores da Universidade de Long Island descobriram as limitações do ChatGPT da OpenAI no que diz respeito ao esclarecimento de dúvidas médicas. Um estudo recente constatou que o chatbot de IA forneceu respostas precisas para apenas uma fração das perguntas relacionadas a medicamentos, levantando preocupações sobre os riscos potenciais de se confiar em tal IA para aconselhamento médico.
Precisão das respostas do ChatGPT
Em um estudo conduzido por pesquisadores da Universidade de Long Island, 39 perguntas relacionadas a medicamentos foram feitas ao ChatGPT, representando consultas reais do serviço de informações sobre medicamentos da Faculdade de Farmácia da universidade. As respostas geradas pelo ChatGPT foram então comparadas às respostas fornecidas por farmacêuticos treinados. Os resultados foram longe de serem tranquilizadores, com o ChatGPT fornecendo respostas precisas para apenas cerca de 25% das perguntas. Nos demais casos, as respostas foram incompletas, imprecisas ou simplesmente não abordaram as perguntas adequadamente.
Preocupações com a saúde pública
Devido ao rápido aumento da popularidade do ChatGPT após seu lançamento em novembro de 2022, surgiram preocupações quanto ao seu uso para consultas médicas. Sara Grossman, professora associada de prática farmacêutica na Universidade de Long Island e uma das autoras do estudo, expressou preocupação de quedent, farmacêuticos e o público em geral pudessem recorrer ao ChatGPT para obter informações sobre saúde e medicamentos. Infelizmente, o estudo revelou que muitas das respostas da IA não eram apenas imprecisas, mas potencialmente perigosas.
Por exemplo, em uma pergunta sobre possíveis interações medicamentosas entre o antiviral Paxlovid, usado no tratamento da Covid-19, e o medicamento Verapamil, usado para baixar a pressão arterial, o ChatGPT forneceu uma resposta imprecisa, sugerindo que não haveria efeitos adversos. Na realidade, a combinação desses medicamentos pode levar a uma queda significativa da pressão arterial, causando tonturas e desmaios. Informações tão enganosas podem colocar as pessoas em risco.
Referências científicas questionáveis
Os pesquisadores também descobriram que, ao solicitar referências científicas ao ChatGPT para fundamentar suas respostas, a IA só conseguia fornecer referências para um número limitado de perguntas. Mais preocupante ainda, as referências fornecidas eram frequentemente fabricadas, parecendo legítimas à primeira vista. Essas citações falsas listavam URLs, formatação adequada e até mesmo faziam referência a periódicos científicos renomados. No entanto, após investigação, ficou claro que o ChatGPT havia criado essas referências, lançando dúvidas sobre a confiabilidade das informações.
Em um caso específico, foi solicitado ao ChatGPT que fornecesse uma taxa de conversão de dose para o medicamento baclofeno, usado no tratamento de espasmos musculares, na transição de injeções espinhais para doses orais. A IA forneceu uma taxa de conversão juntamente com referências a orientações de organizações médicas. No entanto, nenhuma dessas organizações havia estabelecido uma taxa de conversão de dose oficial, tornando as informações do ChatGPT não confiáveis. Além disso, a IA cometeu um erro crítico no cálculo, resultando em uma recomendação de dose 1.000 vezes menor do que a necessária. Tal erro poderia levar a sintomas graves de abstinência em pacientes, caso fosse seguido por um profissional de saúde.
Os perigos da desinformação
O estudo da Universidade de Long Island não é o primeiro a levantar preocupações sobre a capacidade do ChatGPT de gerar citações fictícias ao responder a perguntas médicas. Pesquisas anteriores também destacaram esse problema, demonstrando que a IA pode criar falsificações enganosas de referências científicas, chegando a atribuí-las a autores reais com publicações prévias em periódicos científicos.
Sara Grossman, que tinha pouca experiência com o ChatGPT antes do estudo, expressou surpresa com a capacidade da IA de sintetizar informaçõesdente com confiança. As respostas da IA foram apresentadas de maneira profissional e sofisticada, o que pode ter gerado nos usuários uma falsa sensação de segurança quanto à precisão das informações fornecidas.
Resposta da OpenAI
Em resposta a essas descobertas, a OpenAI, organização por trás do ChatGPT, aconselhou os usuários a não confiarem nas respostas da IA como substituto para aconselhamento ou tratamento médico profissional. As políticas de uso da OpenAI afirmam explicitamente que os modelos do ChatGPT não são ajustados para fornecer informações médicas e nunca devem ser usados para serviços de diagnóstico ou tratamento de doenças graves.
Em busca de informações médicas confiáveis
Embora a conveniência do ChatGPT e de ferramentas de IA semelhantes seja inegável, os consumidores são aconselhados a ter cautela ao buscar informações médicas online. Sara Grossman recomendou o uso de sites governamentais, como a página MedlinePlus dos Institutos Nacionais de Saúde (NIH), para obter informações confiáveis. No entanto, ela enfatizou que as respostas online não devem substituir a orientação de profissionais de saúde, visto que o caso de cada paciente é único e requer atendimento personalizado.
O estudo conduzido pela Universidade de Long Island serve como um forte lembrete das limitações da IA, particularmente quando se trata de assuntos críticos como a saúde. Embora a IA possa fornecer informações valiosas, ela jamais deve substituir a experiência e a orientação de profissionais de saúde qualificados. As consequências de se basear em informações imprecisas ou fabricadas podem ser graves, ressaltando a necessidade de vigilância e discernimento na era digital.

