Em uma de suas principais iniciativas para impulsionar a adoção de tecnologias de IA pelo governo nos Estados Unidos de forma responsável, a Casa Branca determinou a necessidade de conduzir imparciais em ferramentas de IA utilizadas em todas as agências governamentais.
A Ordem Executiva, emitida pelo OMB, representa uma das principais agendas políticas da administração Biden, concebida para minimizar os riscos que possam surgir, incluindo discriminação e violações de privacidade.
Agências federais se preparam para a supervisão e responsabilização da IA
Conforme anunciado na política governamental abrangente, as agências federais irão compilar sistemas operacionaistronpara garantir os direitos e a segurança das pessoas. A implementação desses sistemas está prevista para 1º de dezembro, data em que a inteligência artificial será aplicada de forma a influenciar a vida das pessoas.
Em particular, essas medidas visam eliminar distinções, violações da esfera privada e divergências entre diferentes setores, incluindo segurança no transporte, saúde e prestação de serviços. Além de outras medidas, devem ser nomeados chefes de inteligência artificial ou de combate ao crime e à aplicação da lei para garantir a supervisão
Para supervisionar a execução das diretrizes de inteligência artificial do OMB e coordenar seu uso entre os diferentes órgãos, serão nomeados os Diretores de Inteligência Artificial. Esses profissionais se envolverão na criação e garantia de que as implementações de inteligência artificial no governo federal sejam transparentes e responsáveis.
A vice-dent Kamala Harris enfatizou a intenção de que essas políticas internas sirvam de modelo para ações globais, destacando a importância de priorizar o interesse público na utilização da inteligência artificial. O governo planeja contratar pelo menos 100 funcionários focados em inteligência artificial até o verão, reforçando seu compromisso com essa iniciativa.
Testes rigorosos para sistemas de alto risco
Altos funcionários do governo detalharam que os sistemas de alto risco serão submetidos a testes rigorosos paradente mitigar possíveis vieses e riscos. Essa abordagem proativa reforça o compromisso do governo em garantir o uso responsável da tecnologia de inteligência artificial nas operações governamentais.
De acordo com as novas diretrizes, os americanos podem buscar reparação caso acreditem que os sistemas levaram à disseminação de informações falsas ou a decisões que os afetaram.
As agências federais devem publicar uma lista de sistemas, avaliações de risco e estratégias de gestão. Exceções podem ser concedidas para softwares que não estejam em conformidade com as normas administrativas, mediante justificativa, promovendo transparência e responsabilidade na implementação da inteligência artificial.
Desafios e rumos futuros
Alexandra Reeve Givens, presidente dent CEO do Centro para a Democracia e a Tecnologia, elogiou a orientação como um passo significativo para garantir o uso responsável da IA em agências federais.
Givens enfatizou a importância de processos rigorosos para avaliar o impacto potencial das novas tecnologias sobre indivíduos e comunidades.
Embora as agências federais utilizem tecnologia de IA há anos, uma regulamentação mais ampla da IA está estagnada no Congresso. Como resultado, o governo Biden está aproveitando a posição do governo como um grande consumidor de tecnologia para estabelecer salvaguardas e promover a adoção responsável da IA.
Apesar das medidas proativas tomadas pelo governo, ainda existem desafios, principalmente no que diz respeito à perpetuação de vieses em sistemas de IA. Casos de viés racial e imprecisões na tomada de decisões orientada por IA destacam a necessidade de vigilância e supervisão contínuas na implementação da IA.
A determinação da Casa Branca para testes de viés e supervisão do uso de IA em agências federais representa um passo significativo para garantir a adoção responsável e ética da tecnologia de IA. Ao implementar salvaguardas concretas, promover a transparência e fomentar a responsabilidade pública, o governo visa abordar os riscos potenciais, ao mesmo tempo que aproveita o potencial transformador da IA para o benefício da sociedade.

