A UE proíbe todas as tecnologias de IA consideradas "inaceitavelmente arriscadas"

- A UE acaba de proibir tecnologias de IA que considera muito arriscadas, como sistemas de pontuação social, vigilância em tempo real e previsão de crimes.
- Empresas que utilizam inteligência artificial proibida na UE estão sujeitas a multas de até 35 milhões de euros ou 7% da receita global, independentemente de onde estejam sediadas.
- Grandes empresas como Google e OpenAI prometeram aderir antecipadamente, mas outras, como Meta e Apple, resistiram e não assinaram o pacto voluntário.
A partir de hoje, a União Europeia fechou as portas aos sistemas de IA que classificou como "inaceitavelmente arriscados". Isso não está em discussão.
Os reguladores agora têm o poder de eliminar linhas de produtos inteiras da noite para o dia. O primeiro prazo de conformidade com a Lei de IA da UE sempre esteve previsto para começar em 2 de fevereiro, e a mensagem do bloco é que, se você violar essas regras, terá que desembolsar € 35 milhões (cerca de US$ 36 milhões) ou 7% de sua receita global — o que for mais prejudicial.
O Parlamento Europeu aprovou a Lei de Inteligência Artificial em março passado, após anos de alegados ajustes. Em 1º de agosto, a lei já estava em vigor. Agora, empresas de todos os setores precisam simplesmente lidar com ela.
O que está na lista negra da UE?
A lista negra da UE abrange alguns aspectos obscuros da IA. Esqueça os sistemas que avaliam as pessoas com base no comportamento ou na reputação, como aquele sistema distópico de crédito social da China. Isso acabou. A IA projetada para manipular as escolhas das pessoas por meio de truques sorrateiros ou mensagens subliminares também está proibida.
Além disso, a IA que identifica vulnerabilidades — por exemplo, explorando a idade ou deficiência de alguém para manipulá-lo — está descartada. E aqui vai um fato histórico: a União Europeia tornou ilegal prever se alguém cometerá um crime com base em suas características faciais.
Se a sua IA estiver a extrair dados biométricos para fazer suposições sobre género, orientação sexual ou crenças políticas, desista imediatamente. A monitorização biométrica em tempo real para fins de aplicação da lei também é proibida, a menos que cumpra condições muito específicas, de acordo com a Lei da IA da UE.
Isso significa que não haverá mais escaneamento facial em estações de metrô ou eventos públicos apenas para identificar "suspeitos em potencial". A inteligência artificialtracde emoções em escolas e locais de trabalho também foi cortada, exceto em casos raros relacionados a tratamento médico ou segurança.
Essas proibições se aplicam a todas as empresas que operam dentro das fronteiras da UE. A sede não importa — gigantes do Vale do Silício, startups asiáticas de IA, laboratórios europeus, não importa. Se você usar um sistema restrito, a UE diz que você terá que pagar a multa.
Gigantes corporativos divergem sobre conformidade
Em setembro de 2024, mais de 100 empresas de tecnologia (incluindo Google, OpenAI e Amazon) assinaram um compromisso voluntário chamado Pacto de IA da UE, no qual prometeram, segundo relatos, aprimorar seus projetos de IA antecipadamente, antes dos prazos da lei, e também mapear quais sistemas poderiam se enquadrar nas categorias de alto risco ou proibidas.
Curiosamente, a Meta, a Apple e a empresa francesa de IA Mistral recusaram-se categoricamente, alegando que os regulamentos são demasiado rígidos e sufocariam a inovação em outubro de 2024.
Ainda assim, ignorar o Pacto não isenta ninguém de cumprir a lei, mesmo que, na prática, a maioria dessas empresas de tecnologia nem sequer trabalhe com as categorias proibidas.
Mas, de acordo com a Lei de IA da UE, as agências de aplicação da lei ainda podem usar sistemas de IA que coletam dados biométricos em público, embora precisem de aprovação prévia dos órgãos governamentais. A isenção se aplica a emergências como tracpessoas desaparecidas ou impedir ataques iminentes, e à IA de detecção de emoções em escolas e escritórios, mas apenas quando justificada por preocupações médicas ou de segurança.
Mas a Lei de Inteligência Artificial não opera isoladamente. O Regulamento Geral de Proteção de Dados (RGPD), a Diretiva de Segurança de Redes e Informação (NIS2) e a Lei de Resiliência Operacional Digital (DORA) têm requisitos sobrepostos para o tratamento e a segurança de dados.
Seu banco está usando seu dinheiro. Você está ficando com as sobras. Assista ao nosso vídeo gratuito sobre como se tornar seu próprio banco.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















