ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

Será que a IA pode se tornar imparcial na área da saúde? Pesquisadores lutam para encontrar a resposta

PorIbiam WayasIbiam Wayas
Tempo de leitura: 2 minutos
Será que a IA pode se tornar imparcial na área da saúde? Pesquisadores lutam para encontrar a resposta
  • Pesquisadores do MIT descobriram que a IA pode exacerbar as desigualdades e os preconceitos no sistema de saúde.
  • A equipe descobriu quatro mudanças em subpopulações que causam vieses em modelos de aprendizado de máquina.
  • Para alcançar modelos de IA mais equitativos na área da saúde, os pesquisadores afirmaram que ainda é necessário compreender melhor as fontes de injustiça.

Todo paciente, independentemente de suas características físicas edent, deve ter acesso a um bom atendimento médico. No entanto, certas pessoas ou grupos frequentemente são privados da equidade no sistema de saúde devido a problemas de desigualdade e preconceitos implícitos no tratamento e diagnóstico médico. 

Os modelos de IA na área da saúde são tendenciosos

Um grupo de pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) descobriu que a inteligência artificial e o aprendizado de máquina tendem a agravar as disparidades e desigualdades na área da saúde entre subgrupos, muitas vezes sub-representados. Isso pode afetar a forma como esses grupos são diagnosticados e tratados. 

Liderados por Marzyeh Ghassemi, professora assistente do Departamento de Ciência e Engenharia Elétrica (EECS) do MIT, os pesquisadores publicaram um artigo científico analisando as raízes das disparidades que podem surgir na IA, fazendo com que modelos com bom desempenho geral apresentem falhas quando envolvem subgrupos sub-representados.

A análise focou nas “mudanças de subpopulação”, que o relatório deficomo as “diferenças no desempenho dos modelos de aprendizado de máquina para um subgrupo em comparação com outro”. O objetivo principal era determinar os tipos de mudanças de subpopulação que podem ocorrer com as técnicas de IA e, potencialmente, orientar futuros avanços para modelos mais equitativos. 

“Queremos que os modelos sejam justos e funcionem igualmente bem para todos os grupos, mas, em vez disso, observamos consistentemente a presença de discrepâncias entre diferentes grupos que podem levar a diagnósticos e tratamentos médicos inferiores”, afirma Yuzhe Yang,dent de doutorado do MIT.

Pesquisadoresdent4 mudanças que geram vieses em modelos de IA

Os pesquisadores do MITdentde classes e generalização de atributos – que causam desigualdades e vieses nas técnicas de IA. 

“Os vieses podem, na verdade, surgir do que os pesquisadores chamam de classe, ou do atributo, ou de ambos”, diz o relatório. 

Os pesquisadores deram um exemplo em que modelos de aprendizado de máquina foram usados ​​para determinar se uma pessoa tem pneumonia ou não, com base em um exame de imagens de raio-X, com dois atributos – as pessoas que fizeram o raio-X são do sexo feminino ou masculino – e duas classes – uma composta por pessoas que têm a doença pulmonar e outra por pessoas sem infecção.

“Se, neste conjunto de dados específico, houvesse 100 homens diagnosticados com pneumonia para cada mulher diagnosticada com pneumonia, isso poderia levar a um desequilíbrio de atributos, e o modelo provavelmente teria um desempenho melhor na detecção correta de pneumonia em homens do que em mulheres”, explicou a equipe.

Os modelos de IA podem funcionar de forma imparcial?

Os pesquisadores do MIT afirmaram ter conseguido reduzir a ocorrência de correlações espúrias, desequilíbrio de classes e desequilíbrio de atributos ao aprimorar o "classificador" e o "codificador". No entanto, a outra mudança, a "generalização de atributos", persistiu. 

"Independentemente do que fizemos com o codificador ou o classificador, não vimos nenhuma melhoria em termos de generalização de atributos", diz Yang, "e ainda não sabemos como resolver isso."

A equipe está atualmente explorando conjuntos de dados públicos de dezenas de milhares de pacientes e radiografias de tórax para determinar se os profissionais de saúde podem alcançar imparcialidade no diagnóstico e tratamento médico em modelos de aprendizado de máquina.

No entanto, reconheceram que ainda é necessário um melhor entendimento das fontes de injustiça e de como elas permeiam o nosso sistema atual para alcançarmos a equidade desejada. 

Ainda deixa o banco ficar com a melhor parte? Assista ao nosso vídeo gratuito sobre como ser seu próprio banco.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO