Cargando...

Pruebas de sesgo de IA exigidas por la Casa Blanca para agencias federales

TL;DR

  • El gobierno exige pruebas de sesgo para la rendición de cuentas de la IA.
  • Se nombran directores de IA para supervisar el uso responsable.
  • La supervisión pública garantiza la transparencia en el despliegue de la IA.

En una de sus principales iniciativas para estimular la adopción de tecnologías de IA por parte del gobierno de los Estados Unidos con un enfoque responsable, la Casa Blanca ha dictado la necesidad de realizar sesgadas sobre las herramientas de IA utilizadas en todas las agencias gubernamentales.

La Orden Ejecutiva, emitida a través de la OMB, presenta una de las agendas políticas clave de la administración Biden diseñada para contener los menores riesgos posibles que puedan surgir, incluida la discriminación, junto con las violaciones de la privacidad.

Las agencias federales se preparan para la supervisión y rendición de cuentas de la IA

Como se anunció en la política gubernamental, las agencias federales compilarán sistemas operativos tron para cumplir con los derechos y la seguridad de las personas. Deberían implementarse antes del 1 de diciembre, cuando la inteligencia artificial se aplique de tal manera que pueda influir en la vida de las personas.  

En particular, estas medidas están diseñadas para eliminar distinciones, infracciones de la esfera privada y divergencias entre diferentes sectores, incluida la seguridad en el transporte, la atención médica y la prestación de servicios. Se deben nombrar jefes de inteligencia artificial o de Crimen y Aplicación de la Ley, además de otras medidas para garantizar la supervisión.

Para supervisar cómo se ejecuta la guía de inteligencia artificial de la OMB y coordinar su uso en las diferentes oficinas, se nombrarán directores de inteligencia artificial. Estos funcionarios se involucrarán en la creación y garantía de que los despliegues de inteligencia artificial dentro del gobierno federal sean transparentes y responsables.

La dent Kamala Harris enfatizó la intención de que estas políticas internas sirvan como modelo para la acción global, enfatizando la importancia de priorizar el interés público en la utilización de la inteligencia artificial. La administración planea contratar al menos 100 empleados centrados en inteligencia artificial para el verano, lo que destaca aún más su compromiso con esta iniciativa.

Pruebas rigurosas para sistemas de alto riesgo

Altos funcionarios de la administración han señalado que los sistemas de alto riesgo se someterán a pruebas rigurosas para dent y mitigar posibles sesgos y riesgos. Este enfoque proactivo subraya el compromiso de la administración de garantizar el uso responsable de la tecnología de inteligencia artificial en las operaciones gubernamentales.

Según las nuevas directrices, los estadounidenses pueden buscar soluciones si creen que los sistemas han generado información o decisiones falsas que los afectan. 

Las agencias federales deben publicar una lista de sistemas, evaluaciones de riesgos y estrategias de gestión. Se pueden otorgar exenciones para el software que no cumpla con las reglas de administración, pero se debe proporcionar una justificación, promoviendo la transparencia y la responsabilidad en el despliegue de la inteligencia artificial.

Desafíos y direcciones futuras

Alexandra Reeve Givens, presidenta dent directora ejecutiva del Centro para la Democracia y la Tecnología, elogió la guía como un paso importante para garantizar el uso responsable de la IA dentro de las agencias federales.

Givens enfatizó la importancia de implementar procesos rigurosos para evaluar el impacto potencial de las nuevas tecnologías en los individuos y las comunidades.

Si bien las agencias federales han estado utilizando tecnología de IA durante años, una regulación más amplia de la IA se ha estancado en el Congreso. Como resultado, la administración Biden está aprovechando la posición del gobierno como importante cliente de tecnología para establecer salvaguardas y promover la adopción responsable de la IA.

A pesar de las medidas proactivas adoptadas por la administración, persisten desafíos, particularmente en lo que respecta a la perpetuación de sesgos en los sistemas de inteligencia artificial. Los casos de prejuicios raciales e imprecisiones en la toma de decisiones impulsadas por la IA resaltan la necesidad de una vigilancia y supervisión continuas en el despliegue de la IA.

El mandato de la Casa Blanca de realizar pruebas de sesgo y supervisar el uso de la IA en las agencias federales representa un paso importante para garantizar la adopción responsable y ética de la tecnología de la IA. Al implementar salvaguardias concretas, promover la transparencia y fomentar la rendición de cuentas pública, la administración pretende abordar los riesgos potenciales y al mismo tiempo aprovechar el potencial transformador de la IA en beneficio de la sociedad.

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Compartir enlace:

Emman Omwanda

Emmanuel Omwanda es un reportero de blockchain que profundiza en las noticias de la industria, el análisis en cadena, los tokens no fungibles (NFT), la inteligencia artificial (IA) y más. Su experiencia reside en los mercados de criptomonedas y abarca tanto el análisis fundamental como el técnico.

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

Tecnología de IA
criptopolitano
Suscríbete a CryptoPolitan