L'Institut national américain des normes et de la technologie (NIST) a pris l'initiative de relever les défis liés à l'intelligence artificielle (IA) en publiant quatre projets de documents visant à garantir la sûreté, la sécurité et la fiabilité des systèmes d'IA. Ces projets sont ouverts aux commentaires du public jusqu'au 2 juin 2024. Cette démarche s'inscrit dans le cadre de la réponse du NIST au décret présidentiel d'octobre 2023 sur l'IA, qui met l'accent sur l'atténuation des effets des technologies d'IA tout en promouvant une innovation responsable et le maintien du leadership technologique des États-Unis.
Atténuer les risques liés à l'IA générative
L'un des principaux sujets de préoccupation des du NIST concerne les menaces de sécurité liées aux technologies d'IA générative. Le profil IA du cadre de gestion des risques liés à l'IA (AI RMF) recense 12 risques, allant d'un accès facilité aux informations sensibles à la propagation de discours haineux et de contenus malveillants. La gestion de ces risques constitue un axe prioritaire pour le NIST, qui a identifié dent de 400 actions potentielles de gestion des risques que les organisations peuvent envisager. Ce cadre offre une structure que les développeurs peuvent suivre et qui leur permet d'aligner leurs objectifs et leurs priorités.
Minimiser les risques liés aux données d'entraînement
Un autre point essentiel abordé dans les projets de documents concerne la sécurisation des données utilisées pour l'entraînement des systèmes d'IA. Le projet de publication sur les bonnes pratiques de développement logiciel sécurisé pour l'IA générative et les modèles de base à double usage, qui s'inscrit dans le cadre des recommandations existantes du NIST, vise à garantir l'intégrité des systèmes d'IA face aux inquiétudes liées à l'utilisation malveillante des données d'entraînement. Le NIST propose des méthodes pour sécuriser le code informatique et des solutions aux problèmes de données, notamment en matière de collecte et d'utilisation. Ces mesures permettront de renforcer la sécurité des systèmes d'IA contre les menaces potentielles.
Encourager la transparence dans le contenu créé par l'IA
Face à la prolifération rapide des documents numériques de synthèse, le NIST élabore des mesures d'atténuation des risques qu'ils présentent dans son prochain document intitulé « Réduire les risques liés aux documents de synthèse ». Grâce au tatouage numérique et à l'enregistrement des métadonnées, le NIST cherche à rendre possible le tracet l'dentdes médias altérés, ce qui permettra, espérons-le, de prévenir des conséquences néfastes telles que la diffusion d'images intimes non consensuelles et de matériel pédopornographique.
Favoriser l'engagement mondial sur les normes en matière d'IA
Reconnaissant que la coopération internationale est essentielle à l'établissement de normes relatives à l'IA, le NIST a élaboré un projet de Plan d'engagement mondial sur d'IA . Ce plan vise à encourager la coopération et la coordination entre les alliés internationaux, les organismes de normalisation et le secteur privé afin d'accélérer l'élaboration de normes technologiques pour l'IA. En accordant une priorité absolue à la connaissance de l'origine du contenu et aux méthodes de test, le NIST ambitionne de mettre en place un tron garantissant le fonctionnement sûr et éthique des technologies d'IA à l'échelle mondiale.
Lancement du projet NIST GenAI
Le département du Commerce a annoncé de nouvelles mesures relatives au décret présidentiel sur l'IA, notamment un nouveau programme intitulé NIST GenAI Challenge. Ce programme évaluera et mesurera les technologies d'IA générative. Pour en savoir plus sur le défi et les autres mesures : https://t.co/C2roy7KYfs pic.twitter.com/O27BV84sGB
— Institut national des normes et de la technologie (@NIST) 1er mai 2024
De plus, l'institut a créé NIST GenAI, un logiciel qui évalue et quantifie les capacités des outils d'intelligence artificielle générative. NIST GenAI permettra à l'Institut de sécurité de l'IA du NIST de proposer des défis et des évaluations pilotes afin d'aider l'Institut américain de sécurité de l'IA du NIST à distinguer les données d'entrée des algorithmes d'IA des contenus produits par des humains. L'objectif principal de cette initiative est de promouvoir la fiabilité de l'information et de fournir des orientations sur les enjeux éthiques de la création de contenu à l'ère de l'IA.
L'annonce par le NIST de ces rapports préliminaires et le lancement de NIST GenAI témoignent d'une initiative dynamique et tournée vers le développement, visant à résoudre les problèmes liés à l'IA qui interpellent notre société, tout en garantissant la sécurité de l'innovation. En sollicitant l'avis des principaux acteurs, notamment les entreprises ayant développé ou déployé des technologies d'IA, le NIST souhaite que la plateforme influence la définition des normes et des lignes directrices en matière de sécurité de l'IA. Leur participation active à ce processus permettra aux parties prenantes de contribuer à l'établissement des meilleures pratiques et de l'approche standard du secteur, aboutissant ainsi à un écosystème d'IA sûr et fiable.

