En un intento por aclarar las a menudo turbias aguas de la inteligencia artificial (IA) en la atención médica, el Departamento de Salud y Servicios Humanos (HHS) ha instituido una medida crucial: la Regla de Transparencia de la IA (HTI-1). Si bien ha sido elogiada por su intento de arrojar luz sobre las complejidades de los modelos predictivos de IA, los expertos advierten que la regla, si bien beneficiosa, podría no ofrecer una solución integral a los desafíos inherentes a esta tecnología en rápido avance.
La Regla de Transparencia de la IA surge del reconocimiento de una falta generalizada de transparencia en el mercado de la IA en el ámbito sanitario, en particular en lo que respecta a los modelos predictivos. Jeff Smith, subdirector de Certificación y Pruebas de la Oficina del Coordinador Nacional (ONC) para Tecnologías de la Información Sanitaria del HHS, subraya la urgencia de esta iniciativa. La regla busca abordar la escasez de información sobre el diseño, desarrollo, pruebas, capacitación y evaluación de modelos predictivos de IA, lo que ha provocado daños documentados que afectan a millones de estadounidenses.
Arrojando luz sobre los principios de la regla
En virtud de la Regla de Transparencia de la IA, la ONC ha finalizado dos categorías generales de políticas. En primer lugar, la regla exige la disponibilidad de información completa sobre cómo se diseñan, desarrollan, entrenan, evalúan y deben utilizarse las Intervenciones de Apoyo a la Decisión (IDD) predictivas. Esto supone un paso crucial para que los usuarios adquieran una comprensión más profunda de los algoritmos de IA que emplean.
Además, la norma estipula que la gestión de riesgos desempeña un papel fundamental en el despliegue de DSI predictivos, y que la gobernanza debe guiar su diseño e implementación. Al establecer un marco que incluye la divulgación de información y la gestión de riesgos, la norma busca crear una base para evaluar la calidad de los algoritmos de IA a escala nacional.
Mandar Karhade, Líder de Datos y Análisis en Avalere Health, enfatiza que la intención detrás de algunos modelos de IA no siempre es transparente. Ya sea que el objetivo sea el diagnóstico, el ahorro de costos u otro, la falta de claridad plantea desafíos potenciales. Los historiales clínicostron(HCE) emergen como un dominio vulnerable, con funciones de IA como el "autocompletado" de Oracle que generan inquietud sobre la precisión y las adiciones de datos no deseadas.
Jeff Smith establece paralelismos entre la Regla de Transparencia de la IA y una etiqueta nutricional de alimentos, destacando su papel como fuente de información esencial. Meghan O'Connor, experta legal de Quarles & Brady, cuestiona esta analogía, señalando la naturaleza subjetiva e inconmensurable de la información divulgada. Esto plantea interrogantes sobre cómo los desarrolladores de TI sanitaria comunican dicha información y cómo los proveedores la integran en sus análisis de riesgos.
Evaluación del alcance de la regla de transparencia de la IA
Niam Yaraghi, investigador sénior nodent de la Brookings Institution, ofrece una perspectiva crítica. Si bien reconoce el noble objetivo de la norma de garantizar la equidad en la IA, la considera algo reaccionaria. Yaraghi aboga por políticas que fomenten avances rápidos en IA y aborden barreras como los silos de datos en el sistema sanitario.
Al abordar el complejo panorama de la transparencia en IA, la norma representa un avance significativo. Sin embargo, a medida que el panorama sanitario se enfrenta a la naturaleza cambiante de la IA, persisten preguntas: ¿Puede la transparencia por sí sola garantizar el uso responsable y equitativo de la IA en la atención sanitaria ? ¿Existen limitaciones inherentes a la capacidad de la norma para abordar los desafíos dinámicos que plantea la intersección entre la tecnología y la atención sanitaria? Mientras las partes interesadas avanzan con cautela en este ámbito en constante evolución, la búsqueda del equilibrio entre innovación y rendición de cuentas sigue siendo fundamental.

