L'intelligenza artificiale può diventare imparziale nell'assistenza sanitaria? I ricercatori faticano a trovare una risposta

- I ricercatori del MIT hanno scoperto che l'intelligenza artificiale potrebbe esacerbare le disuguaglianze e i pregiudizi nel sistema sanitario.
- Il team ha scoperto quattro spostamenti di sottopopolazioni che causano distorsioni nei modelli di apprendimento automatico.
- Per ottenere modelli di intelligenza artificiale più equi nel settore sanitario, i ricercatori affermano che rimane necessario comprendere meglio le fonti di ingiustizia.
Ogni paziente, indipendentemente dalle sue caratteristiche fisiche e dalladent, dovrebbe avere accesso a un'assistenza sanitaria di qualità. Tuttavia, alcune persone o gruppi sono spesso privati di un trattamento equo nel sistema sanitario a causa di disuguaglianze e pregiudizi impliciti nelle cure e nelle diagnosi mediche.
I modelli di intelligenza artificiale in ambito sanitario sono distorti
Un gruppo di ricercatori del Massachusetts Institute of Technology (MIT) ha scoperto che l'intelligenza artificiale e l'apprendimento automatico tendono ad accentuare ulteriormente le disparità e le iniquità nell'assistenza sanitaria tra i sottogruppi, spesso sottorappresentati. Ciò può influenzare le modalità di diagnosi e trattamento di questi gruppi.
Guidati da Marzyeh Ghassemi, professoressa associata presso il Dipartimento di Scienze e Ingegneria Elettrica (EECS) del MIT, i ricercatori hanno pubblicato un articolo di ricerca che analizza le cause delle disparità che possono emergere nell'IA, portando i modelli che ottengono buoni risultati complessivi a fallire quando coinvolgono sottogruppi sottorappresentati.
L'analisi si è concentrata sui "cambiamenti di sottopopolazione", che il rapporto deficome le "differenze nel modo in cui i modelli di apprendimento automatico si comportano per un sottogruppo rispetto a un altro". L'obiettivo principale era determinare i tipi di cambiamenti di sottopopolazione che possono verificarsi con le tecniche di intelligenza artificiale e potenzialmente fornire informazioni utili per futuri progressi verso modelli più equi.
"Vorremmo che i modelli fossero equi e funzionassero ugualmente bene per tutti i gruppi, ma invece osserviamo costantemente la presenza di differenze tra i vari gruppi che possono portare a diagnosi e trattamenti medici meno accurati", afferma Yuzhe Yang,dent del MIT.
I ricercatorident4 cambiamenti che generano pregiudizi nei modelli di intelligenza artificiale
I ricercatori del MIT hannodentidentificato tipi di squilibri – correlazioni spurie, squilibrio degli attributi, squilibrio delle classi e generalizzazione degli attributi – che causano iniquità e distorsioni nelle tecniche di intelligenza artificiale.
"I pregiudizi possono, di fatto, derivare da ciò che i ricercatori definiscono classe, o dall'attributo, o da entrambi", si legge nel rapporto.
I ricercatori hanno citato un esempio in cui modelli di apprendimento automatico sono stati utilizzati per determinare se una persona avesse o meno la polmonite, basandosi sull'esame di immagini radiografiche, con due attributi – le persone sottoposte a radiografia erano di sesso femminile o maschile – e due classi – una composta da persone affette dalla malattia polmonare e un'altra da persone sane.
"Se, in questo particolare set di dati, ci fossero 100 uomini a cui è stata diagnosticata la polmonite per ogni donna a cui è stata diagnosticata la polmonite, ciò potrebbe portare a uno squilibrio degli attributi e il modello probabilmente sarebbe più efficace nel rilevare correttamente la polmonite in un uomo che in una donna", ha spiegato il team.
I modelli di intelligenza artificiale possono funzionare in modo imparziale?
I ricercatori del MIT hanno affermato di essere riusciti a ridurre l'incidenza di correlazioni spurie, squilibrio tra classi e squilibrio tra attributi migliorando il "classificatore" e l'"encoder". Tuttavia, l'altro fenomeno, la "generalizzazione degli attributi", è persistito.
"Indipendentemente dalle modifiche apportate al codificatore o al classificatore, non abbiamo riscontrato alcun miglioramento in termini di generalizzazione degli attributi", afferma Yang, "e non sappiamo ancora come risolvere questo problema"
Il team sta attualmente analizzando set di dati pubblici relativi a decine di migliaia di pazienti e radiografie del torace per determinare se i professionisti sanitari possano raggiungere l'equità nella diagnosi e nel trattamento medico attraverso modelli di apprendimento automatico.
Tuttavia, hanno riconosciuto che è ancora necessario comprendere meglio le fonti di ingiustizia e il modo in cui permeano il nostro sistema attuale, al fine di raggiungere l'equità auspicata.
Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















