Uma pesquisa recente publicada na revista Science Advances destaca as extraordinárias capacidades de geradores de texto de IA, como o ChatGPT-3 da OpenAI, de disseminar informações verdadeiras e falsas de forma convincente em plataformas de mídia social. O estudo enfatiza os desafios dedentconteúdo gerado por IA e o impacto da desinformação gerada por IA na saúde individual e pública. O Dr. Federico Germani, coautor e pesquisador do Instituto de Ética Biomédica e História da Medicina da Universidade de Zurique, ressalta a necessidade de compreender os riscos associados à desinformação e a influência da IA no cenário informacional.
Qual a diferença entre desinformação e informação falsa?
A desinformação é informação falsa ou imprecisa — distorcer os fatos. A desinformação é informação falsa deliberadamente criada para enganar — distorcer os fatos intencionalmente. De acordo com a Associação Americana de Psicologia, a desinformação e a desinformação têm afetado nossa capacidade de melhorar a saúde pública, lidar com as mudanças climáticas, manter uma democracia estável e muito mais. Qualquer pessoa que discuta temas polêmicos nas redes sociais pode se ver no meio de uma tempestade. Como essas pessoas podem se manter seguras ao comunicar os fatos, e o que as instituições podem fazer para apoiá-las? A mentalidade de grupo das redes sociais torna o público vulnerável à autoridade da IA, ou seja, esses dados são considerados “científicos” e, portanto, aceitáveis. Mas será que a IA é realmente inteligente?
O poder do ChatGPT-3 para a desinformação.
O ChatGPT-3 da OpenAI, lançado em 2020, revolucionou o cenário da IA com sua incrível capacidade de produzir textos autênticos com base em estímulos. Os usos potenciais de geradores de texto por IA parecem infinitos, desde a criação de chatbots interativos até o auxílio em pesquisas acadêmicas e a geração de conteúdo criativo, como poesias e contos.
O estudo lança luz sobre preocupações significativas relativas ao potencial uso indevido de geradores de texto com IA, particularmente sua capacidade de criar desinformação e conteúdo enganoso. Com a ascensão das mídias sociais, a velocidade e o alcance da informação, incluindo a desinformação e a informação falsa, aumentaram consideravelmente, tornando ainda mais urgente a resolução desse problema.
Outro estudo empírico revelou que as pessoas frequentemente superestimam sua capacidade de detectar informações falsas ou enganosas, um fenômeno conhecido como "ponto cego da mentira". Eventos recentes, como a pandemia de COVID-19 e a invasão da Ucrânia pela Rússia, demonstraram a influência da desinformação e da informação falsa na opinião pública, nos comportamentos relacionados à saúde e nas decisões políticas.
Desafios para empresas de mídia social
Apesar dos esforços das empresas para combater a desinformação em suas plataformas, o Relatório de Ameaças Adversárias do primeiro trimestre de 2023 da Meta reconhece que operações de influência secretas, espionagem cibernética e redes privadas de desinformação continuam a representar problemas significativos nas mídias sociais.
O Dr. Germani e seus colegas conduziram um estudo para avaliar a capacidade das pessoas de distinguir entre conteúdo gerado por humanos e textos criados pelo ChatGPT-3. O estudo envolveu 11 indivíduos suscetíveis à desinformação, e tweets sintéticos contendo informações verdadeiras e falsas foram criados usando o ChatGPT-3. Tweets autênticos do Twitter sobre os mesmos indivíduos também foram incluídos para comparação.
Os participantes do estudo foram solicitados adentse um tweet continha informações verdadeiras ou falsas e se havia sido criado por um humano ou pelo ChatGPT-3. Os resultados revelaram que as pessoas eram mais proficientes emdentdesinformação em tweets "falsos orgânicos" (escritos por usuários reais) em comparação com tweets "falsos sintéticos" (criados pelo ChatGPT-3). Por outro lado, as pessoas eram mais propensas a reconhecer corretamente informações precisas em tweets "verdadeiros sintéticos" (gerados pelo ChatGPT-3) em comparação com tweets "verdadeiros orgânicos" (escritos por usuários reais).
O desafio da diferenciação
O estudo destacou que os participantes tiveram dificuldade em diferenciar entre tweets escritos por humanos e aqueles gerados pelo ChatGPT-3. Os pesquisadores sugerem que o texto do GPT-3 pode ser mais fácil de ler e entender, o que poderia contribuir para essa dificuldade. Curiosamente, o ChatGPT-3 não teve um desempenho melhor do que os humanos no reconhecimento de informações e desinformação, demonstrando sua "falta de consciência" sobre a precisão das informações que produziu.
O Dr. Germani enfatiza a necessidade de estudos em larga escala sobre plataformas de mídia social para entender como as pessoas interagem com informações geradas por IA e como isso molda o comportamento e a adesão às recomendações de saúde pública. O estudo destaca as capacidadesdentprecedentes dos geradores de texto de IA e enfatiza a urgência da alfabetização digital na era da IA.
Monitoramento e mitigação dos efeitos negativos
Os pesquisadores enfatizam a importância de avaliar criticamente as implicações de grandes modelos de linguagem como o ChatGPT-3 e de tomar medidas para mitigar quaisquer efeitos negativos que possam ter sobre a sociedade. À medida que a tecnologia de IA continua a evoluir, a vigilância é crucial para garantir seu uso responsável e para lidar com possíveis abusos.
As conclusões do estudo revelam a impressionante, porém perturbadora, capacidade dos geradores de texto de IA de produzir desinformação de forma mais convincente do que os humanos. À medida que a influência e a popularidade dos geradores de texto de IA aumentam, o estudo destaca a necessidade de medidas proativas para combater a desinformação e garantir o uso responsável da tecnologia de IA.
Nota: A imagem em destaque retrata uma figura robótica com inteligência artificial gerando uma nuvem de texto distorcido ao seu redor , fria e calculista por natureza.

