🔥 Trade with Pros on Discord → 21 Days Free (No Card)JOIN FREE

Como o estudo sobre a aptidão da IA ​​para desinformação revela capacidades impressionantes, porém perturbadoras, do ChatGPT-3

Neste post:

  • Geradores de texto com IA, como o ChatGPT-3, conseguem produzir informações verdadeiras e falsas de forma convincente, o que aumenta as preocupações com a desinformação nas redes sociais. 
  • As pessoas têm dificuldade em distinguir entre conteúdo gerado por humanos e conteúdo gerado por IA, o que revela a sofisticação do ChatGPT-3.
  • A necessidade urgente de alfabetização digital e vigilância para combater o potencial uso indevido da tecnologia de IA na disseminação de desinformação.

Uma pesquisa recente publicada na revista Science Advances destaca as extraordinárias capacidades de geradores de texto de IA, como o ChatGPT-3 da OpenAI, de disseminar informações verdadeiras e falsas de forma convincente em plataformas de mídia social. O estudo enfatiza os desafios dedentconteúdo gerado por IA e o impacto da desinformação gerada por IA na saúde individual e pública. O Dr. Federico Germani, coautor e pesquisador do Instituto de Ética Biomédica e História da Medicina da Universidade de Zurique, ressalta a necessidade de compreender os riscos associados à desinformação e a influência da IA ​​no cenário informacional.

Qual a diferença entre desinformação e informação falsa?

A desinformação é informação falsa ou imprecisa — distorcer os fatos. A desinformação é informação falsa deliberadamente criada para enganar — distorcer os fatos intencionalmente. De acordo com a Associação Americana de Psicologia, a desinformação e a desinformação têm afetado nossa capacidade de melhorar a saúde pública, lidar com as mudanças climáticas, manter uma democracia estável e muito mais. Qualquer pessoa que discuta temas polêmicos nas redes sociais pode se ver no meio de uma tempestade. Como essas pessoas podem se manter seguras ao comunicar os fatos, e o que as instituições podem fazer para apoiá-las? A mentalidade de grupo das redes sociais torna o público vulnerável à autoridade da IA, ou seja, esses dados são considerados “científicos” e, portanto, aceitáveis. Mas será que a IA é realmente inteligente?

O poder do ChatGPT-3 para a desinformação.

O ChatGPT-3 da OpenAI, lançado em 2020, revolucionou o cenário da IA ​​com sua incrível capacidade de produzir textos autênticos com base em estímulos. Os usos potenciais de geradores de texto por IA parecem infinitos, desde a criação de chatbots interativos até o auxílio em pesquisas acadêmicas e a geração de conteúdo criativo, como poesias e contos.

Veja também:  Jamie Metzl explorará as interseções entre IA, genética e biotecnologia no Global AI Show.

O estudo lança luz sobre preocupações significativas relativas ao potencial uso indevido de geradores de texto com IA, particularmente sua capacidade de criar desinformação e conteúdo enganoso. Com a ascensão das mídias sociais, a velocidade e o alcance da informação, incluindo a desinformação e a informação falsa, aumentaram consideravelmente, tornando ainda mais urgente a resolução desse problema.

Outro estudo empírico revelou que as pessoas frequentemente superestimam sua capacidade de detectar informações falsas ou enganosas, um fenômeno conhecido como "ponto cego da mentira". Eventos recentes, como a pandemia de COVID-19 e a invasão da Ucrânia pela Rússia, demonstraram a influência da desinformação e da informação falsa na opinião pública, nos comportamentos relacionados à saúde e nas decisões políticas.

Desafios para empresas de mídia social

Apesar dos esforços das empresas para combater a desinformação em suas plataformas, o Relatório de Ameaças Adversárias do primeiro trimestre de 2023 da Meta reconhece que operações de influência secretas, espionagem cibernética e redes privadas de desinformação continuam a representar problemas significativos nas mídias sociais.

O Dr. Germani e seus colegas conduziram um estudo para avaliar a capacidade das pessoas de distinguir entre conteúdo gerado por humanos e textos criados pelo ChatGPT-3. O estudo envolveu 11 indivíduos suscetíveis à desinformação, e tweets sintéticos contendo informações verdadeiras e falsas foram criados usando o ChatGPT-3. Tweets autênticos do Twitter sobre os mesmos indivíduos também foram incluídos para comparação.

Os participantes do estudo foram solicitados adentse um tweet continha informações verdadeiras ou falsas e se havia sido criado por um humano ou pelo ChatGPT-3. Os resultados revelaram que as pessoas eram mais proficientes emdentdesinformação em tweets "falsos orgânicos" (escritos por usuários reais) em comparação com tweets "falsos sintéticos" (criados pelo ChatGPT-3). Por outro lado, as pessoas eram mais propensas a reconhecer corretamente informações precisas em tweets "verdadeiros sintéticos" (gerados pelo ChatGPT-3) em comparação com tweets "verdadeiros orgânicos" (escritos por usuários reais).

Veja também:  No futuro dos encontros amorosos, duas IAs discutirão se seus donos são compatíveis.

O desafio da diferenciação

O estudo destacou que os participantes tiveram dificuldade em diferenciar entre tweets escritos por humanos e aqueles gerados pelo ChatGPT-3. Os pesquisadores sugerem que o texto do GPT-3 pode ser mais fácil de ler e entender, o que poderia contribuir para essa dificuldade. Curiosamente, o ChatGPT-3 não teve um desempenho melhor do que os humanos no reconhecimento de informações e desinformação, demonstrando sua "falta de consciência" sobre a precisão das informações que produziu.

O Dr. Germani enfatiza a necessidade de estudos em larga escala sobre plataformas de mídia social para entender como as pessoas interagem com informações geradas por IA e como isso molda o comportamento e a adesão às recomendações de saúde pública. O estudo destaca as capacidadesdentprecedentes dos geradores de texto de IA e enfatiza a urgência da alfabetização digital na era da IA.

Monitoramento e mitigação dos efeitos negativos

Os pesquisadores enfatizam a importância de avaliar criticamente as implicações de grandes modelos de linguagem como o ChatGPT-3 e de tomar medidas para mitigar quaisquer efeitos negativos que possam ter sobre a sociedade. À medida que a tecnologia de IA continua a evoluir, a vigilância é crucial para garantir seu uso responsável e para lidar com possíveis abusos.

As conclusões do estudo revelam a impressionante, porém perturbadora, capacidade dos geradores de texto de IA de produzir desinformação de forma mais convincente do que os humanos. À medida que a influência e a popularidade dos geradores de texto de IA aumentam, o estudo destaca a necessidade de medidas proativas para combater a desinformação e garantir o uso responsável da tecnologia de IA.

Nota: A imagem em destaque retrata uma figura robótica com inteligência artificial gerando uma nuvem de texto distorcido ao seu redor , fria e calculista por natureza.

Participe de uma comunidade premium de negociação de criptomoedas gratuitamente por 30 dias - normalmente custa US$ 100/mês.

Compartilhar link:

Aviso:  As informações fornecidas não constituem aconselhamento de investimento. Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan