Em um relatório recente, o Escritório de Responsabilidade Governamental (GAO, na sigla em inglês) expressou preocupação com a falta de preparo do governo dos Estados Unidos para a adoção da inteligência artificial (IA) e o estabelecimento de padrões abrangentes para seu uso. O relatório destaca o rápido crescimento da adoção da IA em agências governamentais, mas ressalta a ausência de um roteiro e de padrões claros, o que pode representar riscos significativos à segurança.
Adoção crescente de IA em agências governamentais
O abrangente relatório de 96 páginas do GAO representa um esforço significativo para documentar o papel crescente da IA e do aprendizado de máquina em agências governamentais não militares. O relatório revela que a IA está sendo empregada atualmente de 228 maneiras distintas em todo o governo federal, com quase 50% dessas aplicações surgindo apenas no último ano. A maioria desses usos, aproximadamente 70%, está relacionada à pesquisa científica ou visa aprimorar a gestão interna das agências.
Notavelmente, embora o relatório liste 71 casos de uso diferentes de IA, apenas 10 deles foram divulgados publicamente. Alguns exemplos incluem o uso de IA pelo Departamento de Comércio para tracincêndios florestais, a contagem automatizada da população de animais selvagens e o monitoramento da atividade vulcânica global pela NASA, impulsionado por IA. O Departamento de Segurança Interna também utiliza IA paradentatividades de interesse nas fronteiras por meio da análise de dados de câmeras e radares.
No entanto, o relatório revela que muitas aplicações de IA permanecem classificadas, com agências federais divulgando apenas 70% do total de 1.241 casos de uso de IA ativos e planejados. Mais de 350 usos da tecnologia foram considerados sensíveis e, portanto, mantidos em sigilo. Esse sigilo, particularmentedent em agências como o Departamento de Estado, levanta preocupações sobre a transparência e a supervisão das aplicações de IA.
O GAO expressa preocupação com a falta de padrões e políticas de IA
Embora as agências governamentais estejam cada vez mais adotando a IA para diversas aplicações, o relatório do GAO enfatiza a necessidade crucial de políticas padronizadas para orientar a aquisição e utilização responsáveis da tecnologia de IA pelo setor privado. A ausência de diretrizes claras representa riscos potenciais à segurança nacional e ao bem-estar dos cidadãos americanos.
O relatório destaca que as agências federais estão desenvolvendo políticas sem diretrizes consistentes, o que pode resultar em práticas desalinhadas com as melhores práticas. Essa situação não apenas prejudica a eficácia da implementação da IA, como também levanta preocupações sobre as consequências para o bem-estar e a segurança nacional.
Uma questão importante destacada pelo GAO (Escritório de Contabilidade do Governo dos EUA) é o atraso na publicação das diretrizes pelo Escritório de Administração e Orçamento (OMB). Esperava-se que o OMB fornecesse diretrizes preliminares às agências até setembro de 2021, conforme exigido por uma lei federal de 2020 sobre o uso de IA (Inteligência Artificial) no governo. No entanto, essas diretrizes só foram divulgadas em novembro de 2023, com mais de dois anos de atraso em relação ao prazo. Esse atraso prejudicou o desenvolvimento de políticas de IA coesas entre as agências federais.
O papel da IA na aplicação da lei e as preocupações com a privacidade
Em um assunto relacionado, o GAO (Escritório de Contabilidade do Governo dos EUA) já havia expressado preocupação em setembro sobre o uso de IA, especificamente a tecnologia de reconhecimento facial, por agentes da lei. O relatório revelou que milhares de buscas por reconhecimento facial foram realizadas sem o devido treinamento entre 2019 e 2022, o que pode ter levado a prisões injustas devido a erros dedent. Essa questão ressalta a importância do uso responsável da IA e a necessidade de políticas claras e supervisão.
O relatório do GAO serve como um alerta crucial para o governo dos EUA, destacando tanto a rápida expansão da adoção de IA em agências governamentais quanto a falta de padrões e políticas abrangentes para regulamentar seu uso. Embora a IA possua um imenso potencial para aprimorar as operações e os serviços governamentais, a ausência de diretrizes claras representa riscos significativos à segurança e à privacidade. A demora do governo em emitir diretrizes essenciais agrava ainda mais a situação. À medida que a IA continua a desempenhar um papel cada vez mais proeminente na sociedade, torna-se imprescindível abordar essas preocupações e estabelecer estruturas de governança robustas.

