A Lei de Inteligência Artificial da Europa recebe aprovação final com multas de até US$ 38 milhões

● A União Europeia aprova a versão final de sua tão aguardada Lei de Inteligência Artificial.
● As novas regras visam restringir o uso de IA considerada de alto risco, como deepfakes e pontuação social.
● Fundadores de startups temem que a lei possa prejudicar o investimento e a inovação.
A União Europeia aprovou na terça-feira a versão final de sua tão aguardada lei sobre Inteligência Artificial (IA), tornando-se a primeira grande potência econômica a introduzir regras abrangentes para o setor emergente.
As novas regras, que visam restringir o uso público de IA considerada de alto risco, como deepfakes e software de reconhecimento facial, serão aplicadas a todas as empresas que implementam tais aplicações nos 27 Estados-Membros da UE.
No total, o bloco da UE representa cerca de 20% da economia global. As empresas de IA que violarem a nova lei estarão sujeitas a multas de até 35 milhões de euros (38 milhões de dólares) ou 7% de sua receita global anual, de acordo com o Conselho da UE.
Leia também: OpenAI abandona o ChatGPT Voice após controvérsia com Scarlett Johansson
Nova legislação visa a 'IA segura'
“A adoção da Lei de Inteligência Artificial é um marco significativo para a União Europeia”, afirmou Mathieu Michel, secretário de Estado belga para a digitalização e proteção da privacidade, em comunicado.
Com a Lei de Inteligência Artificial, a Europa enfatiza a importância da confiança, da transparência e da responsabilidade ao lidar com novas tecnologias, garantindo, ao mesmo tempo, que essa tecnologia em rápida evolução possa prosperar e impulsionar a inovação europeia.
Mathieu Michel
Os três poderes da UE – a Comissão, o Parlamento e o Conselho – tiveram de concordar com a versão final da lei. A Comissão Europeia e o Parlamento Europeu já tinham aprovado a lei, e o Conselho Europeu deu o seu parecer final em 22 de maio.
A Lei de Inteligência Artificial define diferentes categorias de risco para o uso da inteligência artificial, que variam de "baixo risco" a "alto" e "risco inaceitável". Essa classificação se baseia no potencial dos sistemas para prejudicar os consumidores.
Aplicativos de IA considerados uma ameaça aos direitos individuais, como softwares de reconhecimento facial em locais públicos e sistemas de pontuação social – prática que atribui pontuações a indivíduos, seja para empréstimos ou moradia, com base em seu comportamento – serão totalmente proibidos.
A categoria de menor risco relaciona-se à inteligência artificial usada em videogames ou filtros de spam. Casos de uso sensíveis de “alto risco” que serão permitidos incluem áreas como gestão de fronteiras, educação e recrutamento.
As empresas que implementarem essas tecnologias serão obrigadas a divulgar mais informações sobre os dados usados para treinar seus sistemas. De acordo com a UE, o Parlamento Europeu terá o poder de aplicar multas às empresas que violarem a lei de IA, no valor de US$ 38 milhões ou 7% do seu faturamento global anual.
#TTE | 🇪🇺Ministros das Telecomunicações aprovaram hoje a lei de inteligência artificial🤖
Eles também discutiram a implementação das regras da UE na área digital e aprovaram conclusões sobre a política digital da UE e sobre a segurança cibernética.
Confira os principais resultados ➡️https://t.co/Q4eWvrgslw pic.twitter.com/Ayf6EF5NS9
— Conselho da UE (@EUCouncil) 21 de maio de 2024
A Lei de Inteligência Artificial corre o risco de sufocar o investimento
Matthijs de Vries, fundador do ecossistema de dados de IA, Nuklai, afirmou que as regras foram criadas para proteger informações pessoais, especialmente em setores sensíveis como saúde e finanças.
“Ao garantir que os sistemas de inteligência artificial cumpram protocolos rigorosos de utilização de dados, a Lei de IA ajuda a salvaguardar a privacidade e a segurança do consumidor”, disse de Vries Cryptopolitan.
“A divulgação das práticas de coleta, processamento e uso de dados, conforme exigido pela Lei de Proteção de Dados da UE, ajuda a desmistificar com quais dados a IA é treinada e quais dados ela usa para formular suas afirmações e conclusões. Isso contribui para aumentar a confiança, a verificabilidade e a confiabilidade dos sistemas de IA”, acrescentou.
Há preocupações de que as startups possam ter dificuldades para cumprir a Lei de IA. Os fundadores temem que as medidas possam prejudicar as empresas menores e dificultar o investimento e a inovação, deixando a Europa ainda mais para trás dos EUA e da China na corrida da IA.
Em outubro, Cedric O, fundador da startup francesa de IA Mistral, afirmou que a lei "mataria" sua empresa. O empreendedor temia que a lei impusesse um escrutínio excessivo a grandes modelos de linguagem, mesmo que não fossem utilizados em casos sensíveis como recrutamento, conforme relatado.
Jonas Andrulis, CEO da Aleph Alpha, concorrente alemã da OpenAI, afirmou que classificar "IA de propósito geral", como as LLMs, como de alto risco pode ter consequências indesejadas. Seus comentários foram corroborados por Peter Sarlin, CEO da Silo AI, da Finlândia.
“Se generalizarmos para toda a tecnologia de IA generativa e afirmarmos que todos os casos de uso que utilizam transformadores generativos pré-treinados (GPTs) são de alto risco, então acho que também estaremos regulamentando muitos casos de uso que, na verdade, não são de alto risco”, disse Sarlin na época.

As 'fábricas de IA' da UE impulsionarão a inovação
Não são apenas os empreendedores que expressaram preocupação com a Lei de Inteligência Artificial. Uma análise do Departamento de Estado dos EUA, em outubro de 2023, alertou que algumas regras da lei eram baseadas em termos “vagos ou indefinidosdefi, segundo a Bloomberg.
A análise afirmou que a lei beneficiaria as maiores empresas de tecnologia, que têm o poder financeiro para treinar modelos de IA e sistemas de aprendizado de máquina. Empresas menores provavelmente sofreriam perdas, acrescentou.
, é improvável que invistam em startups classificadas como de alto risco pela Lei de Inteligência Artificial de acordo . Onze desses fundos afirmaram que seriam menos propensos a investir em empresas com classificação de alto risco, e oito disseram que isso impactaria negativamente a avaliação da startup.
Leia também: Principais chatbots de IA são 'altamente vulneráveis' a simples 'desbloqueios' – Estudo
No final de janeiro, o bloco da UE anunciou uma série de medidas destinadas a impulsionar a inovação em startups europeias que desenvolvem o que chama de IA "confiável" e que "respeita os valores e as regras da UE".
O sindicato afirmou que as empresas terão "acesso privilegiado a supercomputadores" e que a UE construirá "Fábricas de IA" para garantir que a infraestrutura necessária esteja disponível para que as startups a comprem e atualizem.
A Lei de Inteligência Artificial da Europa não deverá entrar em vigor antes de 2025.
Reportagem Cryptopolitan por Jeffrey Gogo
Existe um meio-termo entre deixar o dinheiro no banco e arriscar tudo em criptomoedas. Comece com este vídeo gratuito sobre finanças descentralizadas.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)














