Chargement...

Le rôle de l’accord sur la sécurité de l’IA entre le Royaume-Uni et les États-Unis dans l’évolution technologique

Dans cet article :

  • Le pacte sur la sécurité de l’IA vise la normalisation et la confiance à l’échelle mondiale.
  • L’accord met l’accent sur l’IA éthique et les technologies transparentes.
  • Le pacte renforce la confiance du public et la collaboration internationale.

L'accord sur la sécurité de l'IA est un effort conjoint entre les gouvernements britannique et américain visant à développer le potentiel de croissance prometteur et la sécurité des technologies d'intelligence artificielle grâce à une approche révolutionnaire. 

Cet engagement a été officialisé début avril 2024 par la ministre britannique de la Technologie, Michelle Donelan, et la secrétaire américaine au Commerce, Gina Raimondo, dans le cadre du dialogue stratégique transatlantique technologique entre le Royaume-Uni et les États-Unis. 

Accord sur la sécurité de l’IA pour relever les défis émergents et respecter les normes éthiques

L’accord vise à intégrer les approches scientifiques et les efforts conjoints entre les deux États pour permettre la création de conducteurs fiables pour les modèles, systèmes et agents d’intelligence artificielle capables de faire le travail.

L’intelligence artificielle est importante dans différents domaines, par exemple la santé, la finance et l’éducation, dans la mesure où elle est utilisée pour des infrastructures cruciales et sensibles. Le rythme de sa propagation et l’amélioration des capacités informatiques de l’intelligence artificielle ont rendu la situation encore plus urgente et nécessitent l’adoption de mesures de sécurité et de principes éthiques stricts.  

Selon Ayesha Iqbal, membre senior de l'IEEE et seul formateur en ingénierie, le taux de croissance de l'intelligence artificielle devrait être de 37,3 % par an entre 2023 et 2030. Cette expansion matic entraîne des défis tels qu'une offre limitée de professionnels humains, la conception des systèmes et de l'architecture, les questions liées au gouvernement et les préoccupations sociales telles que l'automatisation des programmes et le déplacement d'emplois.

L’accord promeut une IA explicable et des normes éthiques

L’accord est motivé de manière à ce que ces défis puissent être relevés en mettant en place des normes de sécurité de l’intelligence artificielle et de développement responsable. Ces normes ne servent pas seulement de mesures de réduction des risques et de preuve de responsabilité. Ils visent également à créer un environnement de confiance et à surveiller méticuleusement la conception éthique de ces systèmes.

Elizabeth Watson, ingénieure en éthique de l'intelligence artificielle qui travaille à l'Université de Stanford, souligne l'importance de l'intelligence artificielle explicable et son essor. Cet aspect de l’IA consiste à rendre les algorithmes compréhensibles pour les non-experts dont les marines sont de plus en plus touchées dans de plus en plus de domaines de la société, une caractéristique essentielle qui doit être présente dans davantage de secteurs. L'IA explicable aide les autorités de contrôle et le public à vérifier et à contester les résultats algorithmiques, en garantissant que les systèmes d'apprentissage automatique sont à la fois explicables et responsables.

L’effet global grâce à une collaboration tournée vers l’avenir

La collaboration entre le Royaume-Uni et les États-Unis peut être reconnue ici comme une stratégie des deux pays les plus développés en matière de sécurité de l’IA. Une telle collaboration devrait ouvrir la voie et, en agissant conjointement, développer des protocoles de sécurité communs tout en créant des normes pour les tests des systèmes d’IA dans leur ensemble.  

Ces protocoles servent d'outil pour vérifier si les systèmes d'IA sont capables de se généraliser à des cas inconnus et, en même temps, de porter des jugements rationnels ou non tout en préservant la flexibilité fonctionnelle du système.

Auparavant, Watson avait déclaré que grâce à la collaboration, le monde serait exposé à la diffusion de normes efficaces qui répondraient aux craintes constantes des gens concernant l'autonomie de notre IA. Grâce à une approche collaborative, le Royaume-Uni et les États-Unis donnent l’exemple aux autres pays en élaborant un ensemble de règles éthiques et solidaires qui pourraient déterminer la manière dont l’IA sera gouvernée à l’échelle mondiale à long terme.

Cet accord est devenu la première action proactive face aux problèmes globaux créés par les systèmes émergents des technologies d’IA. Cela signifie non seulement la valeur de la collaboration internationale dans le développement technologique, mais implique également le fait que la science et la technologie peuvent être collectivement injectées d’un sens d’orientation, nous permettant de gérer et d’orienter efficacement la croissance de l’IA.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Le Colorado mène la charge dans la réglementation de l’IA pour lutter contre la discrimination
cryptopolite
Abonnez-vous à CryptoPolitan