ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

¿Puede la IA volverse imparcial en la atención médica? Los investigadores luchan por encontrar la respuesta

PorIbiam WayasIbiam Wayas
Lectura de 2 minutos.
¿Puede la IA volverse imparcial en la atención médica? Los investigadores luchan por encontrar la respuesta
  • Los investigadores del MIT descubrieron que la IA podría exacerbar las desigualdades y los sesgos en el sistema de atención médica.
  • El equipo descubrió cuatro cambios de subpoblación que provocan sesgos en los modelos de aprendizaje automático.
  • Para lograr modelos de IA más equitativos en la atención médica, los investigadores dijeron que sigue siendo necesario comprender mejor las fuentes de injusticia.

Todo paciente, independientemente de sus características físicas edent, debería tener acceso a una buena atención médica. Sin embargo, ciertas personas o grupos a menudo se han visto privados de la equidad en el sistema de salud debido a las inequidades y los sesgos implícitos en el tratamiento y el diagnóstico médico. 

Los modelos de IA en la atención médica están sesgados

Un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) ha descubierto que la inteligencia artificial y el aprendizaje automático tienden a agravar las disparidades e inequidades en la atención médica entre subgrupos, a menudo subrepresentados. Esto puede afectar el diagnóstico y el tratamiento de estos grupos. 

Bajo la dirección de Marzyeh Ghassemi, profesora adjunta del Departamento de Ciencias e Ingeniería Eléctrica (EECS) del MIT, los investigadores publicaron un artículo de investigación que analiza las raíces de las disparidades que pueden surgir en la IA, provocando que los modelos que funcionan bien en general fallen cuando se trata de subgrupos subrepresentados.

El análisis se centró en los cambios de subpoblación, que el informe deficomo las diferencias en el rendimiento de los modelos de aprendizaje automático para un subgrupo en comparación con otro. El objetivo principal fue determinar los tipos de cambios de subpoblación que pueden ocurrir con las técnicas de IA y, potencialmente, fundamentar futuros avances para modelos más equitativos. 

"Queremos que los modelos sean justos y funcionen igualmente bien para todos los grupos, pero en cambio, observamos constantemente la presencia de cambios entre los diferentes grupos que pueden llevar a un diagnóstico y tratamiento médico inferior", dice Yuzhe Yang,dent de doctorado del MIT.

Los investigadoresdentcuatro cambios que generan sesgos en los modelos de IA

Los investigadores del MITdent. cuatro tipos de cambios —correlaciones espurias, desequilibrio de atributos, desequilibrio de clases y generalización de atributos— que provocan desigualdades y sesgos en las técnicas de IA 

“De hecho, los sesgos pueden provenir de lo que los investigadores llaman clase, o del atributo, o de ambos”, se lee en el informe. 

Los investigadores dieron un ejemplo en el que se utilizaron modelos de aprendizaje automático para determinar si una persona tiene neumonía o no basándose en un examen de imágenes de rayos X, con dos atributos: las personas radiografiadas son mujeres u hombres, y dos clases, una compuesta por personas que tienen la enfermedad pulmonar y otra libre de infección.

“Si, en este conjunto de datos en particular, hubiera 100 hombres diagnosticados con neumonía por cada mujer diagnosticada con neumonía, eso podría llevar a un desequilibrio de atributos, y el modelo probablemente haría un mejor trabajo al detectar correctamente la neumonía en un hombre que en una mujer”, explicó el equipo.

¿Pueden los modelos de IA funcionar de manera imparcial?

Los investigadores del MIT afirmaron haber logrado reducir la incidencia de correlaciones espurias, desequilibrios de clases y desequilibrios de atributos al mejorar el clasificador y el codificador. Sin embargo, el otro cambio, la generalización de atributos, persistió. 

“No importa lo que hayamos hecho con el codificador o el clasificador, no vimos ninguna mejora en términos de generalización de atributos”, dice Yang, “y todavía no sabemos cómo abordar eso”

Actualmente, el equipo está explorando conjuntos de datos públicos de decenas de miles de pacientes y radiografías de tórax para determinar si los profesionales de la salud pueden lograr equidad en el diagnóstico y tratamiento médico en modelos de aprendizaje automático.

Sin embargo, reconocieron que todavía es necesario comprender mejor las fuentes de injusticia y cómo permean nuestro sistema actual para llegar a la equidad deseada. 

¿Sigues dejando que el banco se quede con lo mejor? Mira nuestro video gratuito sobre cómo ser tu propio banco.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO