Your bank is using your money. You’re getting the scraps.WATCH FREE

Estudo revela limitações do ChatGPT para responder a perguntas médicas

Neste post:

  • A precisão do ChatGPT ao responder perguntas médicas é alarmantemente baixa, representando riscos potenciais para a saúde dos usuários.
  • Referências científicas fabricadas comprometem a confiabilidade das respostas médicas do ChatGPT.
  • Os usuários devem ter cautela e consultar profissionais de saúde para obter aconselhamento médico preciso.

Pesquisadores da Universidade de Long Island descobriram as limitações do ChatGPT da OpenAI no que diz respeito ao esclarecimento de dúvidas médicas. Um estudo recente constatou que o chatbot de IA forneceu respostas precisas para apenas uma fração das perguntas relacionadas a medicamentos, levantando preocupações sobre os riscos potenciais de se confiar em tal IA para aconselhamento médico.

Precisão das respostas do ChatGPT

Em um estudo conduzido por pesquisadores da Universidade de Long Island, 39 perguntas relacionadas a medicamentos foram feitas ao ChatGPT, representando consultas reais do serviço de informações sobre medicamentos da Faculdade de Farmácia da universidade. As respostas geradas pelo ChatGPT foram então comparadas às respostas fornecidas por farmacêuticos treinados. Os resultados foram longe de serem tranquilizadores, com o ChatGPT fornecendo respostas precisas para apenas cerca de 25% das perguntas. Nos demais casos, as respostas foram incompletas, imprecisas ou simplesmente não abordaram as perguntas adequadamente.

Preocupações com a saúde pública

Devido ao rápido aumento da popularidade do ChatGPT após seu lançamento em novembro de 2022, surgiram preocupações quanto ao seu uso para consultas médicas. Sara Grossman, professora associada de prática farmacêutica na Universidade de Long Island e uma das autoras do estudo, expressou preocupação de quedent, farmacêuticos e o público em geral pudessem recorrer ao ChatGPT para obter informações sobre saúde e medicamentos. Infelizmente, o estudo revelou que muitas das respostas da IA ​​não eram apenas imprecisas, mas potencialmente perigosas.

Por exemplo, em uma pergunta sobre possíveis interações medicamentosas entre o antiviral Paxlovid, usado no tratamento da Covid-19, e o medicamento Verapamil, usado para baixar a pressão arterial, o ChatGPT forneceu uma resposta imprecisa, sugerindo que não haveria efeitos adversos. Na realidade, a combinação desses medicamentos pode levar a uma queda significativa da pressão arterial, causando tonturas e desmaios. Informações tão enganosas podem colocar as pessoas em risco.

Veja também:  Ethereum : ETH rejeita rapidamente US$ 3.200, pronto para subir acima de US$ 3.300?

Referências científicas questionáveis

Os pesquisadores também descobriram que, ao solicitar referências científicas ao ChatGPT para fundamentar suas respostas, a IA só conseguia fornecer referências para um número limitado de perguntas. Mais preocupante ainda, as referências fornecidas eram frequentemente fabricadas, parecendo legítimas à primeira vista. Essas citações falsas listavam URLs, formatação adequada e até mesmo faziam referência a periódicos científicos renomados. No entanto, após investigação, ficou claro que o ChatGPT havia criado essas referências, lançando dúvidas sobre a confiabilidade das informações.

Em um caso específico, foi solicitado ao ChatGPT que fornecesse uma taxa de conversão de dose para o medicamento baclofeno, usado no tratamento de espasmos musculares, na transição de injeções espinhais para doses orais. A IA forneceu uma taxa de conversão juntamente com referências a orientações de organizações médicas. No entanto, nenhuma dessas organizações havia estabelecido uma taxa de conversão de dose oficial, tornando as informações do ChatGPT não confiáveis. Além disso, a IA cometeu um erro crítico no cálculo, resultando em uma recomendação de dose 1.000 vezes menor do que a necessária. Tal erro poderia levar a sintomas graves de abstinência em pacientes, caso fosse seguido por um profissional de saúde.

Os perigos da desinformação

O estudo da Universidade de Long Island não é o primeiro a levantar preocupações sobre a capacidade do ChatGPT de gerar citações fictícias ao responder a perguntas médicas. Pesquisas anteriores também destacaram esse problema, demonstrando que a IA pode criar falsificações enganosas de referências científicas, chegando a atribuí-las a autores reais com publicações prévias em periódicos científicos.

Veja também:  Novo estudo revela a evolução das táticas de negação das mudanças climáticas no YouTube

Sara Grossman, que tinha pouca experiência com o ChatGPT antes do estudo, expressou surpresa com a capacidade da IA ​​de sintetizar informaçõesdente com confiança. As respostas da IA ​​foram apresentadas de maneira profissional e sofisticada, o que pode ter gerado nos usuários uma falsa sensação de segurança quanto à precisão das informações fornecidas.

Resposta da OpenAI

Em resposta a essas descobertas, a OpenAI, organização por trás do ChatGPT, aconselhou os usuários a não confiarem nas respostas da IA ​​como substituto para aconselhamento ou tratamento médico profissional. As políticas de uso da OpenAI afirmam explicitamente que os modelos do ChatGPT não são ajustados para fornecer informações médicas e nunca devem ser usados ​​para serviços de diagnóstico ou tratamento de doenças graves.

Em busca de informações médicas confiáveis

Embora a conveniência do ChatGPT e de ferramentas de IA semelhantes seja inegável, os consumidores são aconselhados a ter cautela ao buscar informações médicas online. Sara Grossman recomendou o uso de sites governamentais, como a página MedlinePlus dos Institutos Nacionais de Saúde (NIH), para obter informações confiáveis. No entanto, ela enfatizou que as respostas online não devem substituir a orientação de profissionais de saúde, visto que o caso de cada paciente é único e requer atendimento personalizado.

O estudo conduzido pela Universidade de Long Island serve como um forte lembrete das limitações da IA, particularmente quando se trata de assuntos críticos como a saúde. Embora a IA possa fornecer informações valiosas, ela jamais deve substituir a experiência e a orientação de profissionais de saúde qualificados. As consequências de se basear em informações imprecisas ou fabricadas podem ser graves, ressaltando a necessidade de vigilância e discernimento na era digital.

Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis .

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan