Michelle Bowman, membro do Conselho de Governadores do Federal Reserve, tem um recado para os legisladores ansiosos por regulamentar a inteligência artificial: desacelerem.
Em um discurso em Washington, Bowman alertou que a imposição de regras rígidas precipitadamente poderia ser contraproducente. "Não precisamos nos apressar em regulamentar", afirmou. Sua principal preocupação é que o excesso de regulamentação possa expulsar a inovação do setor bancário por completo, deixando ferramentas valiosas como a inteligência artificial de lado.
Segundo Bowman, a inteligência artificial tem um grande potencial no setor financeiro. Ela pode tornar os sistemas mais eficientes, combater fraudes e ampliar o acesso ao crédito. A tecnologia também poderia auxiliar os bancos centrais, melhorando a confiabilidade dos dados econômicos.
“Talvez o uso mais amplo da IA possa servir como uma forma de verificar a confiabilidade dos dados”, sugeriu ela. Ela também disse:
“As ferramentas de IA também podem ser utilizadas para combater fraudes. Um exemplo disso é o combate à fraude com cheques, que se tornou mais comum no setor bancário nos últimos anos.”
O impacto da IA no trabalho e nas políticas públicas
Bowman também está atenta a como a IA está remodelando os mercados de trabalho e os fundamentos econômicos. A IA está alterando os níveis de produtividade, influenciando as taxas de emprego e até mesmodefia taxa natural de juros. Ela acredita que isso desempenhará um papel cada vez mais importante nas discussões sobre política monetária.
Os números indicam por que isso é importante. Nos últimos dois anos, a produtividade do trabalho nos EUA aumentou consideravelmente, crescendo a uma média anual de 2,3%. Isso é quase o dobro da média de 1,3% observada na década anterior à pandemia.
Bowman não está pronta para atribuir todo o mérito do aumento à IA, mas reconheceu que ela pode estar contribuindo. Outros membros do Federal Reserve, incluindo Lisa Cook, concordam. Ela espera que a IA continue impulsionando a produtividade, mas alerta que prever seu impacto exato ainda é uma incógnita.
Para os formuladores de políticas, essas mudanças são cruciais. Alterações na produtividade e perturbações no mercado de trabalho podem forçar o Fed a repensar suas estratégias.
“Ao considerarmos os riscos da IA, muitos deles já estão bem cobertos por estruturas existentes. Por exemplo, a IA frequentemente depende de terceiros — provedores de computação em nuvem, tecnologias de IA generativa licenciadas e provedores de serviços essenciais — para operar.”
– Bowman
A realidade da regulamentação da IA nos EUA
Se você busca regras claras sobre IA nos Estados Unidos, boa sorte. A regulamentação federal é, na melhor das hipóteses, uma colcha de retalhos, deixando para os estados a responsabilidade de preencher as lacunas. A abordagem cautelosa de Bowman reflete a frustração que muitos sentem em relação a esse sistema fragmentado.
Em nível federal, a Lei da Iniciativa Nacional de Inteligência Artificial de 2020 supostamente visava impulsionar o desenvolvimento da IA. Odent Biden deu seguimento a essa iniciativa com uma ordem executiva em 2023 para promover práticas de IA seguras e transparentes. No entanto, críticos de todos os lados afirmam que esses esforços não são suficientes — ou são excessivos.
Agora, as regulamentações podem mudar novamente. O presidentedentDonald Trump deixou suas intenções claras. Ele planeja revogar a ordem executiva de Biden, chamando-a de "obstáculo à inovação"
Enquanto isso, estados como a Califórnia e o Colorado não estão esperando que Washington se organize. A Califórnia está liderando o movimento com leis como a Lei de Transparência da IA. Essa lei exige que empresas com sistemas de IA usados por mais de um milhão de pessoas rotulem claramente o conteúdo gerado por IA.
O Colorado, por outro lado, proibiu a discriminação algorítmica, garantindo que os sistemas de IA não prejudiquem indivíduos com base em raça, gênero ou outras características protegidas. Ambos os estados estão estabelecendo padrões, mas suas regras diferem tanto que as empresas que operam em diferentes estados ficam em apuros.
O custo da fragmentação
Essa estrutura regulatória fragmentada representa um enorme problema de conformidade para as empresas. As companhias precisam lidar com requisitos variados de estado para estado, correndo o risco de sofrer penalidades por descumprimento das normas.
Por exemplo, as leis da Califórnia exigem ferramentas de transparência, mas estas não são obrigatórias em estados com regras mais flexíveis. Isso cria um campo minado para os desenvolvedores de IA.
Os consumidores também enfrentam proteções desiguais. Osdentda Califórnia se beneficiam de regras rígidas de divulgação, enquanto pessoas em outros estados podem nem saber quando estão interagindo com IA. O alerta de Bowman sobre a regulamentação excessiva é válido, mas a regulamentação insuficiente também apresenta riscos.
Especialistas temem que esse desastre deixe os EUA para trás em relação a outros atores globais. A China, por exemplo, está avançando a todo vapor com a supervisão centralizada da IA, enquanto os países europeus estão estabelecendo padrões unificados. Se os EUA não conseguirem elaborar uma estratégia coesa, correm o risco de ficar para trás tanto em inovação quanto em responsabilidade.
Bowman encerrou seu discurso com as seguintes palavras: “A inteligência artificial tem um enorme potencial para remodelar o setor de serviços financeiros e a economia mundial em geral. Embora eu tenha sugerido em meu discurso que não precisamos nos apressar em regulamentá-la, é importante que continuemos a monitorar os desenvolvimentos em IA e seus efeitos no mundo real.”

