Chargement...

Le sénateur du Colorado va établir des politiques de sécurité pour l'utilisation de l'IA

TL; DR

  • Le sénateur John Hickenlooper du Colorado mène un effort visant à établir des normes de sécurité pour les systèmes d'intelligence artificielle. 
  • Il consulte des experts du secteur pour éclairer de nouvelles politiques visant à auditer les technologies d'IA.
  • L’objectif est de garantir que les systèmes d’IA sont sûrs et conformes aux réglementations fédérales grâce à des audits dent et à une collaboration avec le ministère du Commerce.

Dans le cadre d'une étape importante vers une utilisation plus sûre de l'IA, le sénateur John Hickenlooper du Colorado a lancé un plan visant à créer des politiques d'audit de l'IA. En mettant l’accent sur la création de normes claires pour les contrôles des systèmes d’IA, Hickenlooper a contacté des experts du secteur et des acteurs clés pour obtenir des informations. Cet effort vise à guider l’élaboration d’une législation garantissant que les technologies d’IA sont à la fois efficaces et sûres.

Normes de fabrication au Colorado

La stratégie de Hickenlooper implique un effort de collaboration dirigé par le ministère du Commerce. L’objectif est d’élaborer des normes volontaires qui serviraient de guide pour les audits dent des technologies d’IA. Dans un discours prononcé en février, Hickenlooper a souligné l’importance d’une surveillance externe pour l’industrie de l’IA, citant la nécessité d’éviter l’autoréglementation étant donné les risques potentiels encourus.  

« Si nous n’y prenons pas garde et n’orientons pas l’IA de cette manière, elle pourrait finir par déplacer un grand nombre de travailleurs sans tenir compte de ce qu’ils feront ensuite. C’est un exemple parmi des milliers de décisions prises aujourd’hui qui auront des conséquences sur des générations. » » a déclaré le sénateur Hickenlooper.  

En impliquant des tiers qualifiés dans l’audit des systèmes d’IA, l’initiative vise à garantir le respect des lois fédérales et à se prémunir contre les dommages imprévus. 

Détails du questionnaire

Le bureau du sénateur a diffusé un questionnaire couvrant les aspects clés de l'audit des systèmes d'IA, notamment la fréquence, la portée des audits, les exigences de transparence, la conformité et l'écosystème d'audit global.

Ce questionnaire, collecté auprès de Nextgov/FCW, est conçu pour recueillir des informations détaillées qui aideront defi des normes d'audit efficaces et pratiques. L'un des points centraux est la manière dont ces normes pourraient être adaptées aux différentes étapes du développement logiciel, en répondant aux défis uniques posés par les processus de développement en amont et en aval.

La pratique consistant à évaluer les entrées et les sorties d'un système d'IA pour obtenir des résultats sécurisés et de haute qualité par un tiers est connue sous le nom d'audit d'IA. Le bureau de Hickenlooper a vérifié l'origine des questions et a déclaré qu'elles seraient utilisées pour guider les futures initiatives législatives ainsi que le cadre réglementaire qu'il a dévoilé début février.

Hickenlooper pose une question très approfondie concernant la portée de l'audit. Le législateur aborde principalement le développement en amont par rapport au développement en aval lorsqu'il pose la question de savoir comment les critères d'audit prospectif devraient être modifiés pour les développeurs qui opèrent tout au long de l'architecture du logiciel.

En outre, il demande également si des exigences supplémentaires, telles que l’accès aux données de formation des modèles d’IA, les évaluations directes des résultats du système, les tests de vérification interne et les évaluations qualitatives, peuvent être intégrées aux normes d’audit de l’IA. 

Grâce à cette approche proactive, Hickenlooper jette les bases d’un cadre réglementaire qui promet de rendre les technologies d’IA plus sûres et plus fiables. En donnant la priorité à la transparence, à la conformité et au bien-être de la société, cette initiative constitue une étape essentielle dans le développement et le déploiement responsables de l’IA.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Randa Moïse

Randa est une consultante et chercheuse passionnée de blockchain. Profondément absorbée par le pouvoir de transformation de la blockchain, elle tisse des données dans des entreprises de nouvelle génération fascinantes et réalistes. Guidée par un engagement inébranlable envers la recherche et l'apprentissage continu, elle se tient au courant des dernières tendances et avancées dans le mariage entre les sphères de la blockchain et de l'intelligence artificielle.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Grok
cryptopolite
Abonnez-vous à CryptoPolitan