Em um passo significativo para garantir o desenvolvimento seguro e responsável da inteligência artificial (IA), os Estados Unidos, o Reino Unido, Singapura e outras 15 nações apresentaram, em conjunto, o primeiro acordo internacional abrangente focado no desenvolvimento responsável da IA. Essa iniciativa histórica, embora não vinculativa, representa um passo crucial na priorização de medidas de segurança em sistemas de IA desde sua concepção.
Um esforço global para uma IA responsável
O acordo internacional, detalhado em um documento de 20 páginas divulgado recentemente, reúne 18 países, incluindo Estados Unidos, Singapura, Reino Unido, Alemanha, Itália, República Tcheca, Estônia, Polônia, Austrália, Chile, Israel e Nigéria. Embora não seja vinculativo, este acordo reforça o compromisso compartilhado de desenvolver e implementar sistemas de IA com foco principal na proteção dos consumidores e do público em geral contra possíveis usos indevidos.
Jen Easterly, diretora da Agência de Segurança Cibernética e de Infraestrutura dos EUA (CISA), enfatizou a importância deste acordo. Trata-se da primeira vez em que várias nações afirmaram coletivamente a necessidade de priorizar a segurança durante a fase de projeto de sistemas de IA. Easterly ressaltou que essas diretrizes vão além de meras funcionalidades e competição de mercado, enfatizando a importância das considerações de segurança.
Estrutura que aborda questões-chave
A estrutura abrangente aborda questões vitais relacionadas à prevenção do uso indevido da tecnologia de IA. Ela inclui recomendações para testes de segurança robustos antes do lançamento de modelos de IA e medidas para monitorar sistemas de IA quanto a possíveis abusos. Além disso, concentra-se na proteção de dados contra adulteração e na verificação da conformidade dos fornecedores de software com os padrões de segurança.
No entanto, é essencial notar que o acordo não aborda aspectos mais controversos, como defide usos apropriados da IA ou a resolução de preocupações sobre os métodos de coleta de dados.
Iniciativas globais para conter os riscos da IA
Este acordo internacional junta-se a uma série de iniciativas globais destinadas a moldar a trajetória do desenvolvimento da IA. Estas diretrizes representam um reconhecimento coletivo da necessidade de priorizar as considerações de segurança no domínio da inteligência artificial.
No mês passado, o Grupo dos Sete (G7) também decidiu concordar com um código de conduta para empresas que desenvolvem sistemas avançados de IA. Este código de 11 pontos visa promover uma IA segura, protegida e confiável em nível global. Ele reflete a intenção dos governos de trabalharem juntos para mitigar os riscos e o potencial uso indevido da tecnologia de IA. O código enfatiza que as empresas devem tomar medidas ativas paradent, avaliar e mitigar os riscos ao longo de todo o ciclo de vida da IA.
De forma semelhante, a União Europeia fez progressos substanciais ao alcançar um acordo inicial sobre a Lei de Inteligência Artificial, que poderá se tornar o primeiro conjunto abrangente de leis do mundo a regulamentar o uso da tecnologia de IA. Segundo essa lei, as empresas que utilizam ferramentas de IA generativa, como ChatGPT e Midjourney, são obrigadas a divulgar qualquer material protegido por direitos autorais usado no desenvolvimento de seus sistemas. A legislação está atualmente em fase de colaboração entre legisladores da UE e Estados-Membros para finalizar os detalhes do projeto de lei. As ferramentas de IA são categorizadas com base no nível de risco que representam, variando de baixo a limitado, alto ou inaceitável.
Impulso global para a regulamentação da IA
À medida que o movimento global para a regulamentação da IA ganha cada vez mais força, o Grupo dos Sete (G7) está se preparando para estabelecer um código de conduta para sistemas avançados de IA. Este futuro acordo sobre IA, juntamente com o recente acordo internacional e o trabalho da União Europeia na legislação sobre IA, destaca um esforço conjunto para lidar com o cenário em constante evolução da inteligência artificial. O foco permanece na necessidade de medidas de segurança e desenvolvimento responsável no setor de IA.
O acordo internacional para o desenvolvimento responsável da IA representa um momento crucial no cenário global da IA. Embora não seja vinculativo, ele envia uma mensagem clara de que as nações estão comprometidas em priorizar a segurança nos sistemas de IA e proteger os interesses do público. À medida que a tecnologia de IA continua a avançar, esses esforços colaborativos visam encontrar um equilíbrio entre aproveitar seus benefícios e mitigar os riscos potenciais, moldando, em última análise, o futuro responsável da inteligência artificial.

