Your bank is using your money. You’re getting the scraps.WATCH FREE

Estudo de IA revela viés racial persistente em modelos de linguagem

Neste post:

  • O estudo concluiu que modelos de linguagem de IA, como o GPT-4 e o GPT-3.5, demonstram viés racial contra o inglês afro-americano, associando-o a estereótipos negativos e consequências legais.
  • Modelos de IA maiores exibem um viés mais acentuado, levantando preocupações sobre escalabilidade e implicações éticas no desenvolvimento de IA.
  • A pesquisa destaca a necessidade de esforços contínuos para abordar o viés de forma abrangente nos sistemas de IA, a fim de garantir imparcialidade e inclusão.

Em um estudo conduzido por pesquisadores do Allen Institute for AI, da Universidade Stanford e da Universidade de Chicago, surgiram revelações sobre o viés racial embutido em modelos de linguagem de grande escala (LLMs, na sigla em inglês) populares, incluindo o GPT-4 e o GPT-3.5 da OpenAI.

O estudo, detalhado em uma publicação no servidor de pré-impressão arXiv, focou em investigar como esses modelos de linguagem bilíngue (LLMs) respondem a diferentes dialetos e expressões culturais, particularmente o inglês afro-americano (AAE) e o inglês americano padrão (SAE). Por meio de uma série de experimentos, os pesquisadores inseriram documentos de texto em AAE e SAE em chatbots de IA, solicitando que eles inferissem e comentassem sobre os autores.

Os resultados foram alarmantes, revelando um viés consistente nas respostas dos modelos de IA. Textos em inglês afro-americano (AAE) foram consistentemente recebidos com estereótipos negativos, retratando os autores como agressivos, rudes, ignorantes e suspeitos. Em contrapartida, textos em inglês sul-africano (SAE) suscitaram respostas mais positivas. Esse viés estendeu-se além dos traços de personalidade, influenciando as capacidades profissionais e as percepções de legitimidade jurídica.

Implicações em diversas profissões e áreas do direito

Ao serem questionados sobre possíveis carreiras, os chatbots associaram textos em inglês afro-americano (AAE) a empregos de baixa remuneração ou a áreas estereotipicamente ligadas a afro-americanos, como esportes ou entretenimento. Além disso, frequentemente sugeria-se que autores de textos em AAE tinham maior probabilidade de enfrentar consequências legais, incluindo sentenças mais severas, como a pena de morte.

Veja também:  O Japão pode ignorar as restrições de direitos autorais no treinamento de programas de IA generativa?

Curiosamente, quando solicitados a descrever afro-americanos em termos gerais, as respostas foram positivas, usando adjetivos como "inteligentes", "brilhantes" e "apaixonados". Essa discrepância destaca a natureza sutil do preconceito, que emerge seletivamente com base no contexto, particularmente no que diz respeito a suposições sobre os comportamentos ou características dos indivíduos com base no uso da linguagem.

O estudo também revelou que quanto maior o modelo de linguagem, mais pronunciado o viés negativo em relação a autores de textos em inglês afro-americano. Essa observação levanta preocupações sobre a escalabilidade do viés em sistemas de IA, indicando que simplesmente aumentar o tamanho dos modelos de linguagem sem abordar as causas principais pode exacerbar o problema.

Desafios no desenvolvimento ético da IA

Essas descobertas ressaltam os desafios significativos que o desenvolvimento de sistemas de IA éticos e imparciais enfrenta. Apesar dos avanços tecnológicos e dos esforços para mitigar o preconceito, vieses profundamente enraizados continuam a permear esses modelos, refletindo e potencialmente reforçando estereótipos sociais.

A pesquisa enfatiza a importância da vigilância constante, de conjuntos de dados diversificados e de metodologias de treinamento inclusivas para criar uma IA que sirva a toda a humanidade de forma justa. Ela serve como um forte lembrete da necessidade crítica de abordar o viés de forma abrangente no desenvolvimento da IA ​​para garantir resultados equitativos para todos os indivíduos.

O estudo lança luz sobre um aspecto crítico do desenvolvimento da IA, instando as partes interessadas a confrontar e abordar os vieses para construir um cenário tecnológico mais justo e equitativo.

Veja também:  A IA na arqueologia pode desvendar os mistérios da história antiga?

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan