ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

Viés da IA: como a tecnologia reflete e reforça preconceitos

PorGlória KaburuGlória Kaburu
Tempo de leitura: 3 minutos
IA
  • A IA reflete e perpetua preconceitos, desde gênero até raça, impactando textos e imagens gerados.
  • O viés da IA ​​decorre de dados fornecidos por humanos, o que reforça a necessidade de uma análise rigorosa.
  • Combater o viés da IA ​​exige uma abordagem abrangente, com ênfase em dados e ajustes algorítmicos.

Os avanços na inteligência artificial (IA) trouxeram inúmeros benefícios, mas também revelaram um problema persistente: o viés. Estudos e investigações demonstraram que sistemas de IA, incluindo alguns populares como o ChatGPT, exibem vieses que refletem preconceitos sociais, desde o viés de gênero na geração de linguagem até estereótipos raciais e de gênero na geração de imagens.

O dilema Palestina-Israel: um caso de viés da IA

Em um encontro recente com o ChatGPT da OpenAI, a acadêmica palestina Nadi Abusaada ficou consternada com as respostas divergentes a uma pergunta simples: “Israelenses e palestinos merecem ser livres?”. Enquanto a OpenAI declarou inequivocamente a liberdade como um direito humano fundamental para Israel, retratou a questão da justiça para a Palestina como “complexa e altamente debatida”. Esse forte contraste reflete os vieses presentes nos sistemas de IA.

A reação de Abusaada destaca um problema antigo enfrentado pelos palestinos no discurso ocidental e na mídia tradicional: a desinformação e o viés. Não se trata de umdent isolado, mas sim de um sintoma de desafios mais amplos relacionados à neutralidade da Anistia Internacional.

Viés de gênero em textos gerados por IA: um padrão preocupante

Um estudo comparando os chatbots de IA ChatGPT e Alpaca revelou vieses de gênero nos textos gerados. Ao serem solicitados a escrever cartas de recomendação para funcionários hipotéticos, ambos os sistemas de IA demonstraram um claro viés de gênero. O ChatGPT usou termos como "especialista" e "integridade" para homens, mas se referiu a mulheres como "beleza" ou "encanto". O Alpaca apresentou problemas semelhantes, associando homens a "ouvintes" e "pensadores", enquanto rotulava mulheres com termos como "graça" e "beleza"

Essas descobertas ressaltam a presença de preconceitos de gênero profundamente enraizados na IA, que refletem e perpetuam estereótipos sociais. Isso levanta questões sobre o papel da IA ​​no reforço de normas de gênero prejudiciais.

Imagens geradas por IA: reforçando estereótipos raciais e de gênero

A Bloomberg Graphics investigou o viés da IA ​​usando a conversão de texto em imagem com o Stable Diffusion, uma plataforma de IA de código aberto. Os resultados foram alarmantes: o sistema de IA exacerbou estereótipos de gênero e raciais, superando aqueles encontrados no mundo real. Quando solicitados com termos como "CEO" ou "prisioneiro", as imagens geradas exibiram consistentemente vieses.

A investigação revelou uma sub-representação de mulheres e indivíduos com tons de pele mais escuros em imagens relacionadas a empregos bem remunerados, enquanto houve uma super-representação em imagens relacionadas a empregos de baixa remuneração. Em buscas relacionadas a crimes, a IA gerou desproporcionalmente imagens de indivíduos de pele mais escura, apesar de a população carcerária ser mais diversa na realidade.

Essas descobertas demonstram que os algoritmos de IA, impulsionados por dados de treinamento tendenciosos e tendências programadas por humanos, reforçam os preconceitos sociais em vez de mitigá-los.

Revelando as raízes do viés da IA

O viés nos sistemas de IA pode ser tracao seu processo de aprendizagem, que se baseia em exemplos e entrada de dados. Os humanos desempenham um papel fundamental na formação do comportamento da IA, seja intencionalmente ou não, fornecendo dados que podem ser tendenciosos ou estereotipados. A IA, então, aprende e reflete esses vieses em seus resultados.

Reid Blackman, especialista em ética digital, citou o caso do software de leitura de currículos com IA da Amazon, que aprendeu involuntariamente a rejeitar todos os currículos de mulheres. Esse exemplo destaca como a IA pode, sem querer, perpetuar a discriminação se aprender com exemplos tendenciosos.

Combater o viés em IA exige uma análise abrangente dos dados dos sistemas de IA, dos algoritmos de aprendizado de máquina e de outros componentes. Uma etapa crucial é avaliar os dados de treinamento em busca de viés, garantindo que grupos sub ou super-representados sejam devidamente considerados.

Tomando medidas contra o viés na IA

O relatório da IBM enfatiza a necessidade de analisar minuciosamente os conjuntos de dados em busca de vieses, principalmente em algoritmos de reconhecimento facial, onde a sobrerrepresentação de certos grupos pode levar a erros.dente corrigir esses vieses é essencial para garantir a imparcialidade e a precisão dos sistemas de IA.

O problema não se limita a textos gerados por IA, mas se estende a sistemas de personalização algorítmica. Esses sistemas, como visto na plataforma de anúncios do Google, podem perpetuar preconceitos de gênero ao aprenderem com o comportamento dos usuários. À medida que os usuários clicam ou pesquisam de maneiras que refletem preconceitos sociais, os algoritmos aprendem a gerar resultados e anúncios que reforçam esses preconceitos.

Embora a IA tenha feito progressos significativos em diversas áreas, o viés continua sendo um desafio formidável. Os sistemas de IA refletem e perpetuam preconceitos sociais, desde o viés de gênero na geração de linguagem até estereótipos raciais e de gênero na geração de imagens. Combater o viés da IA ​​exige uma abordagem multifacetada que envolva análise cuidadosa dos dados e ajustes algorítmicos. Somente por meio desses esforços a IA poderá realmente servir como uma ferramenta neutra e imparcial para o benefício de todos.

As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas.

Compartilhe este artigo

Aviso: As informações fornecidas não constituem aconselhamento de investimento. Cryptopolitannão se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrona realização de pesquisas independentesdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO