Dans le cadre d'une étape importante vers une utilisation plus sûre de l'IA, le sénateur John Hickenlooper du Colorado a lancé un plan visant à créer des politiques d'audit de l'IA. En mettant l’accent sur la création de normes claires pour les contrôles des systèmes d’IA, Hickenlooper a contacté des experts du secteur et des acteurs clés pour obtenir des informations. Cet effort vise à guider l’élaboration d’une législation garantissant que les technologies d’IA sont à la fois efficaces et sûres.
Normes de fabrication au Colorado
La stratégie de Hickenlooper implique un effort de collaboration dirigé par le ministère du Commerce. L’objectif est d’élaborer des normes volontaires qui serviraient de guide pour les audits dent des technologies d’IA. Dans un discours prononcé en février, Hickenlooper a souligné l’importance d’une surveillance externe pour l’industrie de l’IA, citant la nécessité d’éviter l’autoréglementation étant donné les risques potentiels encourus.
« Si nous n’y prenons pas garde et n’orientons pas l’IA de cette manière, elle pourrait finir par déplacer un grand nombre de travailleurs sans tenir compte de ce qu’ils feront ensuite. C’est un exemple parmi des milliers de décisions prises aujourd’hui qui auront des conséquences sur des générations. » » a déclaré le sénateur Hickenlooper.
En impliquant des tiers qualifiés dans l’audit des systèmes d’IA, l’initiative vise à garantir le respect des lois fédérales et à se prémunir contre les dommages imprévus.
Détails du questionnaire
Le bureau du sénateur a diffusé un questionnaire couvrant les aspects clés de l'audit des systèmes d'IA, notamment la fréquence, la portée des audits, les exigences de transparence, la conformité et l'écosystème d'audit global.
Ce questionnaire, collecté auprès de Nextgov/FCW, est conçu pour recueillir des informations détaillées qui aideront defi des normes d'audit efficaces et pratiques. L'un des points centraux est la manière dont ces normes pourraient être adaptées aux différentes étapes du développement logiciel, en répondant aux défis uniques posés par les processus de développement en amont et en aval.
La pratique consistant à évaluer les entrées et les sorties d'un système d'IA pour obtenir des résultats sécurisés et de haute qualité par un tiers est connue sous le nom d'audit d'IA. Le bureau de Hickenlooper a vérifié l'origine des questions et a déclaré qu'elles seraient utilisées pour guider les futures initiatives législatives ainsi que le cadre réglementaire qu'il a dévoilé début février.
Hickenlooper pose une question très approfondie concernant la portée de l'audit. Le législateur aborde principalement le développement en amont par rapport au développement en aval lorsqu'il pose la question de savoir comment les critères d'audit prospectif devraient être modifiés pour les développeurs qui opèrent tout au long de l'architecture du logiciel.
En outre, il demande également si des exigences supplémentaires, telles que l’accès aux données de formation des modèles d’IA, les évaluations directes des résultats du système, les tests de vérification interne et les évaluations qualitatives, peuvent être intégrées aux normes d’audit de l’IA.
Grâce à cette approche proactive, Hickenlooper jette les bases d’un cadre réglementaire qui promet de rendre les technologies d’IA plus sûres et plus fiables. En donnant la priorité à la transparence, à la conformité et au bien-être de la société, cette initiative constitue une étape essentielle dans le développement et le déploiement responsables de l’IA.