O Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) adotou uma postura proativa na resolução dos desafios associados à inteligência artificial (IA), publicando quatro versões preliminares destinadas a garantir a segurança e a confiabilidade dos sistemas de IA. Durante esse período, que termina em 2 de junho de 2024, as versões preliminares estão abertas a comentários públicos. Isso reflete a resposta do NIST à Ordem Executiva sobre IA de outubro de 2023, que enfatiza a mitigação dos efeitos das tecnologias de IA, ao mesmo tempo que promove a inovação responsável e a manutenção da liderança tecnológica dos EUA.
Mitigando os riscos da IA generativa
Uma das principais preocupações nas do NIST em versão preliminar são as ameaças à segurança decorrentes das tecnologias de IA generativa. O perfil de IA generativa do RMF de IA apresenta 12 riscos, que variam desde a alta acessibilidade a informações sensíveis até a propagação de discurso de ódio e conteúdo malicioso. Lidar com esses riscos tem sido uma área de foco fundamental para o NIST, que identificou dent de 400 ações potenciais de gerenciamento de riscos que as organizações podem considerar. Essa estrutura fornece um modelo que os desenvolvedores podem seguir e alinhar seus objetivos e prioridades.
Minimizar os riscos dos dados de treinamento
Outro conteúdo fundamental apresentado nas versões preliminares é como proteger os dados usados no treinamento de sistemas de IA. A publicação preliminar sobre Práticas Seguras de Desenvolvimento de Software para IA Generativa e Modelos Fundamentais de Uso Duplo, que faz parte das diretrizes existentes do NIST, foi elaborada para garantir a integridade dos sistemas de IA em meio às preocupações com dados de treinamento maliciosos. O NIST sugere algumas maneiras de tornar o código de computador seguro e oferece soluções para problemas relacionados a dados, incluindo coleta e uso. Isso tornará os sistemas de IA mais seguros contra possíveis ameaças.
Promovendo a transparência em conteúdo criado por IA
Em resposta ao rápido aumento do número de materiais digitais sintetizados, o NIST está desenvolvendo medidas de mitigação para combater os riscos que eles representam, conforme descrito em seu próximo documento sobre a Redução dos Riscos Causados por Materiais Sintéticos. Por meio de marcas d'água digitais e registro de metadados, o NIST busca possibilitar o trace adentde mídias alteradas, o que, espera-se, evitará consequências negativas, incluindo a distribuição de imagens íntimas não consensuais e material de abuso sexual infantil.
Impulsionando o engajamento global em padrões de IA
Reconhecendo que a cooperação internacional é fundamental para o estabelecimento de padrões relacionados à IA, o NIST elaborou uma versão preliminar do Plano Global de Engajamento em de IA . O objetivo deste plano é incentivar a cooperação e a coordenação entre aliados internacionais, organizações de desenvolvimento de padrões e o setor privado para acelerar a adoção de padrões tecnológicos para IA. Ao priorizar a conscientização sobre a origem do conteúdo e os métodos de teste, o NIST visa desenvolver um tron que assegure a operação segura e eticamente correta das tecnologias de IA em todo o mundo.
Iniciando o NIST GenAI
O @CommerceGov anunciou novas medidas relacionadas à Ordem Executiva sobre IA, como um novo programa chamado Desafio NIST GenAI. Ele avaliará e mensurará tecnologias de IA generativa. Saiba mais sobre o desafio e as outras medidas: https://t.co/C2roy7KYfs pic.twitter.com/O27BV84sGB
— Instituto Nacional de Padrões e Tecnologia (@NIST) 1º de maio de 2024
Além disso, o instituto criou o NIST GenAI, uma ferramenta de software que avalia e quantifica as capacidades de ferramentas de inteligência artificial generativa. O NIST GenAI será um instrumento com o qual o Instituto de Segurança de IA do NIST poderá lançar desafios e avaliações piloto para ajudar o Instituto de Segurança de IA dos EUA no NIST a diferenciar entre o conteúdo gerado pelo algoritmo de IA e o conteúdo produzido por humanos. Por definição, o principal objetivo desta iniciativa é promover a confiabilidade da informação e fornecer orientações sobre a dimensão ética da criação de conteúdo na era da IA.
O anúncio desses relatórios preliminares pelo NIST e o lançamento do NIST GenAI representam uma iniciativa ativa e orientada para o desenvolvimento, visando solucionar problemas relacionados à IA que desafiam nossa sociedade, ao mesmo tempo em que se busca manter a inovação segura. Por meio das solicitações de contribuições de partes interessadas importantes, como empresas que desenvolveram ou implementaram tecnologias de IA, a plataforma do NIST pode influenciar a definição de diretrizes de segurança e padrões para IA. Com a participação ativa nesse processo, as partes interessadas podem contribuir para o estabelecimento das melhores práticas e da abordagem padrão do setor, o que, em última análise, leva a um ecossistema de IA seguro e confiável.

