L'IA peut-elle devenir impartiale dans le domaine de la santé ? Les chercheurs peinent à trouver la réponse

- Des chercheurs du MIT ont découvert que l'IA pourrait exacerber les inégalités et les biais au sein du système de santé.
- L'équipe a découvert quatre changements au sein de sous-populations qui provoquent des biais dans les modèles d'apprentissage automatique.
- Pour parvenir à des modèles d'IA plus équitables dans le domaine de la santé, les chercheurs ont déclaré qu'il restait nécessaire de mieux comprendre les sources d'injustice.
Chaque patient, quelles que soient ses caractéristiques physiques et sondent, devrait avoir accès à des soins de santé de qualité. Cependant, certaines personnes ou certains groupes sont souvent privés d'équité au sein du système de santé en raison d'inégalités et de préjugés implicites dans le traitement et le diagnostic médicaux.
Les modèles d'IA dans le secteur de la santé sont biaisés
Une équipe de chercheurs du Massachusetts Institute of Technology (MIT) a découvert que l'intelligence artificielle et l'apprentissage automatique tendent à accentuer les disparités et les inégalités en matière de santé au sein de sous-groupes souvent sous-représentés. Cela peut avoir des répercussions sur le diagnostic et le traitement de ces groupes.
Sous la direction de Marzyeh Ghassemi, professeure adjointe au département des sciences et de l'ingénierie électriques (EECS) du MIT, les chercheurs ont publié un article de recherche analysant les racines des disparités qui peuvent survenir dans l'IA, faisant que les modèles qui fonctionnent bien dans l'ensemble peuvent flancher lorsqu'il s'agit de sous-groupes sous-représentés.
L'analyse s'est concentrée sur les « déplacements de sous-population », que le rapport deficomme les « différences de performance des modèles d'apprentissage automatique pour un sous-groupe par rapport à un autre ». L'objectif principal était de déterminer les types de déplacements de sous-population susceptibles de se produire avec les techniques d'IA et d'éclairer potentiellement les progrès futurs vers des modèles plus équitables.
« Nous voulons que les modèles soient équitables et fonctionnent aussi bien pour tous les groupes, mais nous constatons systématiquement des différences entre les différents groupes, ce qui peut conduire à des diagnostics et des traitements médicaux de moindre qualité », explique Yuzhe Yang,dent au MIT.
Des chercheurs ontdent4 changements qui introduisent des biais dans les modèles d'IA
Les chercheurs du MIT ontdentidentifié types de décalages – corrélations fallacieuses, déséquilibre des attributs, déséquilibre des classes et généralisation des attributs – qui entraînent des inégalités et des biais dans les techniques d'IA.
« Les biais peuvent en fait provenir de ce que les chercheurs appellent la classe, ou de l’attribut, ou des deux », indique le rapport.
Les chercheurs ont donné un exemple où des modèles d'apprentissage automatique ont été utilisés pour déterminer si une personne souffrait ou non d'une pneumonie à partir de l'examen d'images radiographiques, avec deux attributs : les personnes radiographiées sont soit des femmes, soit des hommes, et deux classes : l'une composée de personnes atteintes de la maladie pulmonaire et l'autre exempte d'infection.
« Si, dans cet ensemble de données particulier, on comptait 100 hommes diagnostiqués avec une pneumonie pour chaque femme diagnostiquée avec une pneumonie, cela pourrait entraîner un déséquilibre des attributs, et le modèle serait probablement plus performant pour détecter correctement la pneumonie chez un homme que chez une femme », a expliqué l'équipe.
Les modèles d'IA peuvent-ils fonctionner de manière impartiale ?
Les chercheurs du MIT ont déclaré avoir pu réduire l'apparition de corrélations fallacieuses, de déséquilibres de classes et de déséquilibres d'attributs en améliorant le « classificateur » et l'« encodeur ». Cependant, l'autre problème, la « généralisation des attributs », persistait.
« Peu importe ce que nous avons fait à l'encodeur ou au classificateur, nous n'avons constaté aucune amélioration en termes de généralisation des attributs », explique Yang, « et nous ne savons pas encore comment résoudre ce problème. »
L'équipe explore actuellement des ensembles de données publics portant sur des dizaines de milliers de patients et de radiographies pulmonaires afin de déterminer si les professionnels de la santé peuvent garantir l'équité dans le diagnostic et le traitement médical grâce aux modèles d'apprentissage automatique.
Ils ont toutefois reconnu qu'il est encore nécessaire de mieux comprendre les sources d'injustice et la manière dont elles imprègnent notre système actuel pour parvenir à l'équité souhaitée.
Vous laissez encore la banque garder le meilleur ? Regardez notre vidéo gratuite sur comment devenir votre propre banque.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















