Alucinações geradas por IA: uma crescente preocupação com a saúde em 2023

- Em 2023, as alucinações geradas por IA estão disseminando rapidamente informações falsas, representando um desafio significativo.
- A inteligência artificial, exemplificada pelo chatbot Tay da Microsoft, pode imitar ações humanas prejudiciais, amplificando as preocupações.
- A desinformação gerada por inteligência artificial ameaça a saúde e distorce a realidade, levando especialistas a alertarem sobre uma crise de informação impulsionada pela IA.
A proliferação da inteligência artificial (IA) trouxe consigo um fenômeno perturbador: as alucinações geradas por IA. O termo "alucinar" assumiu um novo e alarmante significado na era digital, visto que os sistemas de IA podem produzir informações falsas que podem impactar indivíduos e a sociedade. Em 2023, essa tendência ganhou atenção significativa, levando o Dictionary.com a eleger "alucinar" como a Palavra do Ano.
A palavra do ano de 2023 do Dictionary.com
A decisão do Dictionary.com de eleger "alucinar" como a Palavra do Ano diz muito sobre a crescente proeminência da desinformação gerada por IA. A escolha reflete um aumento de 46% nas buscas por "alucinar" no dicionário entre 2022 e 2023, juntamente com um aumento semelhante nas buscas por "alucinação". No entanto, o principal fator por trás desse aumento não é a defitradicional da palavra, mas sim uma interpretação específica da IA:
Alucinar [huh-loo-suh-neyt] -verbo- (de inteligência artificial) significa produzir informações falsas contrárias à intenção do usuário e apresentá-las como verdadeiras e factuais. Exemplo: Quando chatbots alucinam, o resultado muitas vezes não é apenas impreciso, mas completamente fabricado.
A capacidade da IA para enganar
O potencial da IA para enganar é uma preocupação crescente. Embora nem todos os sistemas de IA se comportem dessa maneira, alguns podem ser programados para imitar características humanas, servindo como porta-vozes políticos ou disseminando informações falsas enquanto se fazem passar por fontes de fatos. Sua velocidade incomparável na produção de desinformação e informações falsas diferencia a IA dos humanos.
Um estudo recente publicado no JAMA Internal Medicine destacou a extensão desse problema. O estudo demonstrou como o GPT Playground da OpenAI gerou mais de 17.000 palavras de desinformação sobre vacinas e cigarros eletrônicos em apenas 65 minutos. Além disso, ferramentas de IA generativa criaram 20 imagens realistas para acompanhar as narrativas falsas em menos de 2 minutos. Essa rápida geração de conteúdo enganoso desafia a capacidade dos indivíduos de discernir fato de ficção.
Consequências não intencionais da desinformação sobre IA
Mesmo quando os sistemas de IA não têm a intenção de enganar, podem inadvertidamente produzir informações enganosas. Um estudo realizado na Reunião Clínica de Meio de Ano da Sociedade Americana de Farmacêuticos de Sistemas de Saúde destacou as limitações da IA no domínio médico. O ChatGPT, ao ser questionado sobre 39 medicamentos, forneceu respostas satisfatórias para apenas 10. Por exemplo, afirmou erroneamente que a combinação de Paxlovid, um medicamento antiviral para COVID-19, e verapamil, um medicamento para pressão arterial, não apresentava interações, contradizendo o conhecimento médico estabelecido.
A capacidade da IA de gerar desinformação vai além da área da saúde. Algumas ferramentas de IA já foram observadas interpretando imagens de forma equivocada, frequentemente confundindo diversos objetos com pássaros. Um exemplo publicado pela revista The Economist revelou a resposta de uma IA a uma pergunta sobre a Ponte Golden Gate ter sido transportada para o Egito em 2016, demonstrando a incapacidade da IA de distinguir fato de ficção.
Odent com o chatbot Tay AI da Microsoft em 2021 reforça ainda mais o potencial da IA para gerar conteúdo prejudicial. Em menos de 24 horas após entrar no Twitter, o chatbot começou a publicar tweets racistas, misóginos e falsos, o que levou a Microsoft a removê-lo rapidamente da plataforma. Esse episódio destaca a propensão da IA a imitar comportamentos humanos negativos, levantando questões sobre as considerações éticas no desenvolvimento e na implementação da IA.
Um problema de saúde real
As alucinações geradas por IA, assim como as que ocorrem com humanos, representam uma preocupação real para a saúde. Além das implicações imediatas da desinformação, elas podem afetar negativamente o bem-estar mental e emocional. Uma constante enxurrada de alucinações geradas por IA pode corroer o senso de realidade de um indivíduo, levando à confusão e à ansiedade.
Reconhecendo a gravidade do problema, organizações como a Organização Mundial da Saúde e a Associação Médica Americana emitiram declarações alertando para os potenciais danos da desinformação gerada por IA. Embora a escolha de "alucinar" como a Palavra do Ano de 2023 pelo Dictionary.com sejamatic do problema, enfrentar os complexos desafios impostos pelas alucinações geradas por IA exige vigilância constante e esforços conjuntos para promover o desenvolvimento responsável da IA.
Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrona realização de pesquisas independentesdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Brenda Kanana
Brenda é escritora com três anos de experiência, especializada em criptomoedas, inteligência artificial e tecnologias emergentes. Ela se formou em Sociologia pela Universidade Técnica de Mombasa. Trabalhou na Zycrypto e Cryptopolitan.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)














