- A IA reflete e perpetua preconceitos, desde gênero até raça, impactando textos e imagens gerados.
- O viés da IA decorre de dados fornecidos por humanos, o que reforça a necessidade de uma análise rigorosa.
- Combater o viés da IA exige uma abordagem abrangente, com ênfase em dados e ajustes algorítmicos.
Os avanços na inteligência artificial (IA) trouxeram inúmeros benefícios, mas também revelaram um problema persistente: o viés. Estudos e investigações demonstraram que sistemas de IA, incluindo alguns populares como o ChatGPT, exibem vieses que refletem preconceitos sociais, desde o viés de gênero na geração de linguagem até estereótipos raciais e de gênero na geração de imagens.
O dilema Palestina-Israel: um caso de viés da IA
Em um encontro recente com o ChatGPT da OpenAI, a acadêmica palestina Nadi Abusaada ficou consternada com as respostas divergentes a uma pergunta simples: “Israelenses e palestinos merecem ser livres?”. Enquanto a OpenAI declarou inequivocamente a liberdade como um direito humano fundamental para Israel, retratou a questão da justiça para a Palestina como “complexa e altamente debatida”. Esse forte contraste reflete os vieses presentes nos sistemas de IA.
A reação de Abusaada destaca um problema antigo enfrentado pelos palestinos no discurso ocidental e na mídia tradicional: a desinformação e o viés. Não se trata de umdent isolado, mas sim de um sintoma de desafios mais amplos relacionados à neutralidade da Anistia Internacional.
Viés de gênero em textos gerados por IA: um padrão preocupante
Um estudo comparando os chatbots de IA ChatGPT e Alpaca revelou vieses de gênero nos textos gerados. Ao serem solicitados a escrever cartas de recomendação para funcionários hipotéticos, ambos os sistemas de IA demonstraram um claro viés de gênero. O ChatGPT usou termos como "especialista" e "integridade" para homens, mas se referiu a mulheres como "beleza" ou "encanto". O Alpaca apresentou problemas semelhantes, associando homens a "ouvintes" e "pensadores", enquanto rotulava mulheres com termos como "graça" e "beleza"
Essas descobertas ressaltam a presença de preconceitos de gênero profundamente enraizados na IA, que refletem e perpetuam estereótipos sociais. Isso levanta questões sobre o papel da IA no reforço de normas de gênero prejudiciais.
Imagens geradas por IA: reforçando estereótipos raciais e de gênero
A Bloomberg Graphics investigou o viés da IA usando a conversão de texto em imagem com o Stable Diffusion, uma plataforma de IA de código aberto. Os resultados foram alarmantes: o sistema de IA exacerbou estereótipos de gênero e raciais, superando aqueles encontrados no mundo real. Quando solicitados com termos como "CEO" ou "prisioneiro", as imagens geradas exibiram consistentemente vieses.
A investigação revelou uma sub-representação de mulheres e indivíduos com tons de pele mais escuros em imagens relacionadas a empregos bem remunerados, enquanto houve uma super-representação em imagens relacionadas a empregos de baixa remuneração. Em buscas relacionadas a crimes, a IA gerou desproporcionalmente imagens de indivíduos de pele mais escura, apesar de a população carcerária ser mais diversa na realidade.
Essas descobertas demonstram que os algoritmos de IA, impulsionados por dados de treinamento tendenciosos e tendências programadas por humanos, reforçam os preconceitos sociais em vez de mitigá-los.
Revelando as raízes do viés da IA
O viés nos sistemas de IA pode ser tracao seu processo de aprendizagem, que se baseia em exemplos e entrada de dados. Os humanos desempenham um papel fundamental na formação do comportamento da IA, seja intencionalmente ou não, fornecendo dados que podem ser tendenciosos ou estereotipados. A IA, então, aprende e reflete esses vieses em seus resultados.
Reid Blackman, especialista em ética digital, citou o caso do software de leitura de currículos com IA da Amazon, que aprendeu involuntariamente a rejeitar todos os currículos de mulheres. Esse exemplo destaca como a IA pode, sem querer, perpetuar a discriminação se aprender com exemplos tendenciosos.
Combater o viés em IA exige uma análise abrangente dos dados dos sistemas de IA, dos algoritmos de aprendizado de máquina e de outros componentes. Uma etapa crucial é avaliar os dados de treinamento em busca de viés, garantindo que grupos sub ou super-representados sejam devidamente considerados.
Tomando medidas contra o viés na IA
O relatório da IBM enfatiza a necessidade de analisar minuciosamente os conjuntos de dados em busca de vieses, principalmente em algoritmos de reconhecimento facial, onde a sobrerrepresentação de certos grupos pode levar a erros.dente corrigir esses vieses é essencial para garantir a imparcialidade e a precisão dos sistemas de IA.
O problema não se limita a textos gerados por IA, mas se estende a sistemas de personalização algorítmica. Esses sistemas, como visto na plataforma de anúncios do Google, podem perpetuar preconceitos de gênero ao aprenderem com o comportamento dos usuários. À medida que os usuários clicam ou pesquisam de maneiras que refletem preconceitos sociais, os algoritmos aprendem a gerar resultados e anúncios que reforçam esses preconceitos.
Embora a IA tenha feito progressos significativos em diversas áreas, o viés continua sendo um desafio formidável. Os sistemas de IA refletem e perpetuam preconceitos sociais, desde o viés de gênero na geração de linguagem até estereótipos raciais e de gênero na geração de imagens. Combater o viés da IA exige uma abordagem multifacetada que envolva análise cuidadosa dos dados e ajustes algorítmicos. Somente por meio desses esforços a IA poderá realmente servir como uma ferramenta neutra e imparcial para o benefício de todos.
As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas.
Aviso: As informações fornecidas não constituem aconselhamento de investimento. Cryptopolitannão se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrona realização de pesquisas independentesdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)
















