Na segunda-feira, a Autoridade de Conduta Financeira do Reino Unido (FCA) anunciou uma parceria com a fabricante de chips americana Nvidia para permitir que os bancos experimentem inteligência artificial com segurança. A agência afirmou que criará um "ambiente de testes aprimorado" para dar às empresas acesso a melhores dados, conhecimento técnico e suporte regulatório, acelerando assim a inovação.
A FCA também declarou que as instituições de serviços financeiros no Reino Unido poderão experimentar com IA a partir de outubro. As empresas usarão os produtos de computação acelerada e software empresarial de IA da Nvidia.
A FCA oferece solução para os desafios de IA dos bancos
Em sua caixa de areia superpotente!
Imagino que outros fabricantes de chips não sejam permitidos, então... ou será que eles só queriam incluir a Nvidia para fingir que sabem do que estão falando?
— Wiseman (@thomwiseman) 9 de junho de 2025
O regulador financeiro observou que a iniciativa foi concebida para empresas na fase de descoberta e experimentação com IA. A FCA também reconheceu que existe um serviço de testes separado para empresas mais avançadas no desenvolvimento de IA.
A agência afirmou que o novo ambiente de testes resolve um problema crucial para os bancos, que têm enfrentado dificuldades para disponibilizar novas ferramentas avançadas de IA aos seus clientes em meio a preocupações com riscos relacionados à privacidade e fraude. Grandes modelos de linguagem de empresas como OpenAI e Google enviam dados para instalações no exterior, o que tem gerado questionamentos por parte dos órgãos reguladores de privacidade sobre a forma como as informações são armazenadas e processadas.
“Essa colaboração ajudará aqueles que desejam testar ideias de IA, mas que não possuem os recursos necessários para fazê-lo. Ajudaremos as empresas a aproveitar a IA para beneficiar nossos mercados e consumidores, ao mesmo tempo que apoiamos o crescimento econômico.”
– Jessica Rusu , Diretora de Dados, Inteligência e Informação da FCA.
O CEO da Nvidia, Jensen Huang, deverá proferir um discurso de abertura em uma conferência de tecnologia em Londres na manhã de segunda-feira.
Edward Achtner, líder de IA generativa do HSBC, disse em uma conferência de tecnologia em Londres no ano passado que vê "muito teatro do sucesso" no setor financeiro em relação à inteligência artificial.
Achtner insinuou que algumas empresas de serviços financeiros estão promovendo avanços em IA sem inovações tangíveis em produtos para demonstrar. Ele também mencionou que, embora bancos como o HSBC usem IA há muitos anos, novas ferramentas de IA generativa, como o ChatGPT da OpenAI, trazem consigo riscos de conformidade específicos.
A Itália tornou-se o primeiro país ocidental a banir o ChatGPT, alegando violação das leis europeias. A Autoridade Italiana de Proteção de Dados ordenou à OpenAI que suspendesse temporariamente o processamento de dados de usuários italianos em meio a investigações sobre uma suspeita de violação das rigorosas normas de privacidade da Europa.
O Reino Unido propõe regulamentar a inteligência artificial
Em notícia bombástica, o governo do Reino Unido acaba de ser derrotado na Câmara dos Lordes pela segunda vez em relação à inteligência artificial e aos direitos autorais.
O governo havia removido emendas ao Projeto de Lei de Dados que exigiriam que as empresas de IA divulgassem seus dados de treinamento. A Câmara dos Lordes agora as reinseriu.
A maioria… pic.twitter.com/cJE3ekUBSp
— Ed Newton-Rex (@ednewtonrex) 12 de maio de 2025
O secretário de Tecnologia do Reino Unido, Peter Kyle, anunciou na semana passada que pretende apresentar um projeto de lei sobre inteligência artificial na próxima sessão parlamentar para abordar preocupações sobre questões como segurança e direitos autorais. Anteriormente, os ministros pretendiam publicar um projeto de lei mais conciso que exigiria que as empresas entregassem grandes modelos de IA, como o ChatGPT, para testes pelo Instituto de Segurança de IA do Reino Unido.
O projeto de lei abordava preocupações de que os modelos de IA pudessem se tornar tão avançados a ponto de representarem um risco para a humanidade. A legislação foi adiada, com os ministros decidindo esperar e se alinhar com o governo de Donald Trump nos EUA devido a receios de que qualquer regulamentação pudesse enfraquecer atracdo Reino Unido para empresas de IA.
O governo do Reino Unido e a Câmara dos Lordes já estão em impasse sobre as regras de direitos autorais em um projeto de lei de dados . A legislação permitiria que empresas de IA treinassem seus modelos usando material protegido por direitos autorais, a menos que o detentor dos direitos optasse por não permitir. Na quarta-feira, os membros da Câmara dos Lordes votaram por 221 a 116 para aprovar uma emenda que obrigaria as empresas de IA a serem transparentes sobre o material que usam para treinar seus modelos.
O governo argumentou que o projeto de lei sobre dados não é o instrumento adequado para a questão dos direitos autorais e prometeu publicar uma avaliação de impacto econômico e uma série de relatórios técnicos sobre direitos autorais e questões de IA. Uma parlamentar independente, Beeban Kidron, afirmou que os ministros prejudicaram as indústrias criativas e dizimaram o segundo maior setor industrial do Reino Unido.
Agora, o projeto de lei corre o risco de ser arquivado, a menos que a Câmara dos Comuns aceite a emenda Kidron ou proponha uma alternativa.
A ministra da Economia Digital e Segurança Online da Câmara dos Lordes, Maggie Jones, havia instado os membros a votarem contra a emenda Kidron depois que o governo ofereceu concessões de última hora numa tentativa de evitar outra derrota.
Kidron disse aos seus pares que aquela era a última oportunidade para pedir ao governo que apresentasse uma solução significativa e também instou os ministros a estabelecerem medidas concretas para sujeitar as empresas de IA às regras de direitos autorais.

