A Lei de Inteligência Artificial (IA) da União Europeia está finalmente em vigor cinco meses depois de ter sido aprovada pelo parlamento da União Europeia. Com a lei agora em vigor, torna-se o marco regulatório sobre IA e poderá definir o ritmo para que outros países regulem o sector emergente.
No entanto, a maioria das disposições da Lei da IA não entrará em vigor imediatamente, uma vez que existem prazos para a aplicação das regras. Espera-se que isto dê às empresas mais tempo para cumprir a lei à medida que o sector evolui e permita que os Estados-Membros se preparem para a sua aplicação.
Os casos de uso de IA são classificados com base em seus riscos
A lei adota um sistema de classificação baseado em risco para determinar as regras que serão aplicadas a cada empresa de IA. As categorias são sem risco, risco mínimo, alto risco e proibido, e qualquer categoria em que um sistema de IA se enquadre determinará quando as regras relativas às suas operações entrarão em vigor.
sistemas de IA proibidos , o regulador estabeleceu o prazo de fevereiro de 2025 para proibir sistemas que vasculhem a Internet para expandir bancos de dados de reconhecimento facial ou manipular os usuários para que tomem uma decisão.
Aqueles que se enquadram na categoria de aplicação de alto risco também terão seis meses a partir de 1º de agosto para cumprir as regras rígidas que lhes são aplicáveis. Os sistemas de IA classificados como de alto risco incluem aqueles utilizados para reconhecimento facial, biometria, serviços públicos críticos, educação, emprego e software médico.
Os requisitos para o grupo incluem a apresentação de conjuntos de dados de treinamento aos reguladores para auditoria e o fornecimento de prova de supervisão humana. Eles também são obrigados a realizar testes de conformidade pré-comercialização. Para sistemas de alto risco utilizados por agências governamentais ou para serviços públicos, o desenvolvedor teria de registrá-los na base de dados da UE.
Entretanto, cerca de 85% dos sistemas de IA enquadram-se na categoria de risco mínimo, com regras mais flexíveis. Ainda assim, a lei estabeleceu penalidades para impedir violações. As multas variam de 7% do volume de negócios anual global, quando as empresas violam os sistemas proibidos de IA, a 1,5%, por fornecerem informações erradas aos reguladores.
IA generativa com restrições mínimas
Para os desenvolvedores de sistemas de IA generativos, as suas preocupações são limitadas, uma vez que a Lei rotula os seus modelos como exemplos de IA de uso geral (GPAI) e classifica a maioria deles como de risco mínimo. Assim, os principais chatbots de IA, como MetaAI, ChatGPT, Perplexity, Claude AI, etc., não seriam significativamente afetados.
A lei apenas exige maior transparência destas empresas de IA através da divulgação dos seus dados de formação. Espera-se também que cumpram as regras de direitos de autor da UE. No entanto, um pequeno grupo de GPAI é considerado suficientemente crucial para causar riscos sistémicos. Referem-se àqueles treinados usando poder de computação acima de um nível especificado.
Curiosamente, a UE também é responsável pela aplicação das regras relacionadas com os GPAI, embora cada país seja responsável pela implementação das regras gerais ao abrigo da Lei. Os estados têm até agosto de 2025 para criar órgãos para implementar a lei em seu país.
Entretanto, ainda existem muitas zonas cinzentas em relação a vários aspectos da Lei. Isso inclui as diretrizes específicas que os desenvolvedores do GPAI devem cumprir de acordo com a lei. Os reguladores estão a desenvolver códigos de prática para este fim, com o AI Office a liderar o processo.
O gabinete, que é o órgão que monitoriza e constrói o ecossistema de IA, anunciou recentemente um processo de consulta e apelou a todas as partes interessadas para participarem no processo de elaboração de regras. Pretende ter os Códigos prontos até abril de 2025.
Academia Cryptopolitan: Cansado de balanços de mercado? Saiba como DeFi pode ajudá -lo a criar renda passiva constante. Registre -se agora