A xAI, empresa de inteligência artificial de Elon Musk, anunciou que irá aderir ao capítulo de segurança do código de conduta de IA da União Europeia, uma medida que a coloca em alinhamento parcial com as regras de IA do bloco.
O código, elaborado por 13 colaboradoresdent , é voluntário, mas proporciona clareza jurídica às empresas que o adotam, enquanto se preparam para a plena aplicação da Lei de IA da UE.
A xAI e outras empresas de tecnologia têm sentimentos contraditórios em relação ao código
Em uma publicação no X , a xAI reconheceu que, embora a Lei e o Código de IA promovam a segurança, outras partes são profundamente prejudiciais à inovação, e suas disposições sobre direitos autorais são claramente excessivas.
A empresa, no entanto, confirmou que assinará o capítulo sobre segurança.
“A xAI apoia a segurança da IA e assinará o Capítulo sobre Segurança e Proteção do Código de Práticas da Lei de IA da UE.”
~ xAI.
A empresa não informou se pretende adotar as outras duas seções do código, transparência e direitos autorais, que se aplicarão a fornecedores de IA de uso geral sob a regulamentação futura.
A posição da xAI agrava a crescente divisão entre os principais desenvolvedores de IA sobre como responder à estrutura da UE. O Google , parte da Alphabet, comprometeu-se a assinar o código de conduta na íntegra, apesar de ter expressado sérias reservas sobre alguns aspectos das regras.
“Continuamos preocupados com o fato de a Lei e o Código de IA poderem atrasar o desenvolvimento e a implementação da IA na Europa”, disse Kent Walker, presidente dent Assuntos Globais do Google, em uma publicação no blog. Mas ele acrescentou que mudanças recentes no código o aprimoraram e afirmou que o Google prosseguirá com a assinatura.
Em contrapartida, a Meta se recusou a assinar . A empresa controladora do Facebook afirma que o código cria incerteza jurídica e inclui medidas que vão muito além do que a Lei de Inteligência Artificial exige.
A gigante da tecnologia alertou que a estrutura poderia dissuadir as empresas de desenvolverem sistemas fundamentais de IA na Europa, descrevendo a direção da UE como "o caminho errado em IA"
A Microsoft e a OpenAI não confirmaram se irão assinar o código.
A UE está preparando o setor de tecnologia para a aplicação da Lei de Inteligência Artificial
O código de conduta da UE para IA foi concebido como uma ferramenta de transição, ajudando as empresas a se adequarem às futuras leis de IA que entrarão em vigor em 2 de agosto para modelos de alto impacto. Essas regras visam desenvolvedores de modelos de IA de risco sistêmico, como os criados pelo Google, Meta, Anthropic e OpenAI.
Embora não seja juridicamente vinculativo, o código define as expectativas em relação à documentação, à origem do conteúdo e à resposta a reivindicações de direitos autorais. As empresas que aderirem provavelmente se beneficiarão de uma interação regulatória mais tranquila e de menos incertezas jurídicas.
A abrangente Lei de IA da UE, uma legislação de grande alcance, busca regulamentar a IA com base em níveis de risco. Ela proíbe certos usos de forma direta, como sistemas de manipulação ou pontuação social, ao mesmo tempo que impõe requisitos rigorosos a usos de "alto risco" em áreas como educação, emprego e biometria.
Os desenvolvedores de modelos avançados precisarão realizar avaliações de risco, manter registros transparentes e cumprir rigorosos padrões de qualidade. Aqueles que não atenderem a esses requisitos poderão ser multados em até 7% do seu faturamento anual global.
As diferentes reações dos líderes em IA sugerem que está a surgir uma divergência na forma como as empresas de tecnologia encaram a regulamentação na UE.
Enquanto alguns, como o Google, estão optando por um engajamento estratégico, outros, como a Meta, estão resistindo, temendo que as regras sufoquem a inovação .
A decisão da xAI de dar suporte seletivo a partes do código pode representar um meio-termo, reconhecendo a importância da segurança da IA e, ao mesmo tempo, resistindo ao que considera uma regulamentação excessiva.
À medida que a UE avança com sua agenda regulatória, mais empresas de tecnologia terão que fazer uma escolha: cooperar desde o início ou correr o risco de conflitos mais tarde.

