DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Le sommet de Bletchley sur l'IA met en balance les menaces et les opportunités économiques

ParRanda MosesRanda Moses
3 minutes de lecture -
Bletchley

  • Les dirigeants mondiaux ont débattu des risques et des opportunités liés à l'IA à Bletchley Park. Certains ont émis des doutes quant à l'implication de la Chine, mais l'événement a néanmoins été un succèsmatic .
  • Les États-Unis ont promulgué un décret visant à réglementer l'IA, en mettant l'accent sur les risques connus tels que la protection de la vie privée et la concurrence. Le débat se poursuit quant à la nature et aux acteurs de cette réglementation.
  • Les gouvernements doivent trouver un équilibre entre la lutte contre les menaces que représente l'IA et l'exploitation de son potentiel économique. Le monde observe l'évolution de la réglementation et de l'innovation en matière d'IA.

Les gouvernements du monde entier se sont réunis à Bletchley Park en novembre pour un sommet sur l'IA visant à relever les défis multiformes posés par l'intelligence artificielle. Cet événement, qui s'est tenu les 1er et 2 novembre 2023, a suscité un vif intérêt et de nombreuses spéculations avant même son ouverture. Le sommet s'est principalement concentré sur l'atténuation des risques existentiels liés à l'IA avancée, mais a également abordé les opportunités économiques et les enjeux réglementaires.

Résultat positif du sommet sur l'IA de Bletchley

Malgré un scepticisme initial quant à la confirmation des invités et l'absence de personnalités de premier plan, le sommet sur la sécurité de l'IA à Bletchley Park a dépassé les attentes. Des critiques, notamment de la part de certains conservateurs proches de la Chine et de politiciens américains, ont remis en question la présence de représentants chinois à l'événement. Par ailleurs, des doutes ont été émis quant à l'ambitieuse volonté du Royaume-Uni de mener les efforts mondiaux en matière de réglementation de l'IA.

Le sommet s'est néanmoins révélé un succèsmatic pour la Grande-Bretagne. Il a réuni un parterre d'invités prestigieux, avec la présence de personnalités telles que Sam Altman d'OpenAI et la vice-dent américaine Kamala Harris. Le point d'orgue du sommet a été la Déclaration de Bletchley, un engagement fort de 28 nations et de l'Union européenne à collaborer pour faire face aux risques existentiels liés à l'IA. Notamment, les États-Unis et la Chine, ainsi que le Royaume-Uni, l'Inde et l'Australie, ont apporté leur soutien.

Accès du gouvernement aux modèles d'IA

Lors du sommet, le Premier ministre Rishi Sunak a annoncé une avancée majeure : les entreprises spécialisées en IA ont accepté d’accorder aux gouvernements un accès anticipé à leurs modèles pour des évaluations de sécurité. Cependant, cette annonce, peu précise, rappelait une déclaration faite en juin. La création au Royaume-Uni de la Frontier AI Task Force, un organisme permanent chargé de superviser la sécurité, a également été dévoilée.

Décret présidentiel américain sur l'IA

Quelques jours avant le sommet de Bletchley, la vice-dent américaine Kamala Harris a réaffirmé l'engagement des États-Unis à demeurer un chef de file technologique en matière d'IA. Parallèlement, ledent Joe Biden a promulgué un décret très attendu visant à réglementer de manière exhaustive les plus grandes entreprises mondiales d'IA. 

Le décret présidentiel vise principalement à traiter les risques connus,dentet à court terme liés à l'IA, notamment en matière de protection de la vie privée, de concurrence et de discrimination algorithmique. Il accorde la priorité à la protection des droits et libertés civiques des Américains. Le décret enjoint 25 agences et ministères fédéraux, responsables de domaines tels que le logement, la santé et la sécurité nationale, d'établir des normes et des réglementations pour l'utilisation et le contrôle de l'IA. De plus, il instaure de nouvelles obligations de déclaration et de tests pour les entreprises à l'origine des modèles d'IA les plus performants et oblige les entreprises dont les modèles peuvent constituer une menace pour la sécurité nationale à divulguer leurs mesures de sécurité.

Débats mondiaux sur la réglementation de l'IA

L'Union européenne devrait dévoiler une législation ambitieuse sur la réglementation de l'IA d'ici la fin de l'année. Parallèlement, le G7, groupe des économies développées, travaille à l'élaboration d'un code de conduite spécifique pour les entreprises spécialisées en IA. La Chine a également lancé sa propre initiative en la matière.

Les principaux débats portent sur les aspects de l'IA qui nécessitent une réglementation et sur les acteurs qui devraient en assumer la responsabilité. Les entreprises technologiques prônent généralement une réglementation limitée, ciblant les applications d'IA les plus avancées plutôt que les modèles sous-jacents. Cependant, face à la rapidité des progrès technologiques, cette position devient de plus en plus difficile à maintenir.

Les États-Unis et le Royaume-Uni estiment que les agences gouvernementales existantes sont capables de superviser la réglementation de l'IA. Cependant, des voix critiques s'élèvent contre les tracdes organismes de réglementation étatiques. Des figures de proue du secteur de l'IA, comme Mustafa Suleyman, cofondateur de DeepMind, ont proposé la mise en place d'un régime de gouvernance mondial similaire au GIEC, visant à renforcer la transparence des activités des entreprises spécialisées en IA. Suleyman a même évoqué la possibilité d'un moratoire sur la formation de la prochaine génération de systèmes d'IA au cours des cinq prochaines années.

IA open source vs. IA propriétaire

Un débat a également émergé concernant les approches open source et propriétaire en matière de recherche en IA. Les partisans de l'open source soutiennent que la domination des entreprises à but lucratif dans la recherche en IA pourrait engendrer des conséquences indésirables, et que les modèles open source pourraient accélérer la recherche sur la sécurité. À l'inverse, les défenseurs des modèles propriétaires affirment que les risques associés à l'IA avancée sont trop importants pour permettre la libre diffusion du code source des modèles puissants.

Équilibrer les risques et les avantages économiques de l'IA

Les gouvernements, y compris celui du Royaume-Uni, se trouvent confrontés à un exercice d'équilibriste délicat : reconnaître l'importance de maîtriser les risques liés à l'IA tout en restant ouverts à ses opportunités commerciales. L'IA est en passe de devenir une technologie à usage général, avec des applications très diverses comparables à celles d'innovations passées telles que la machine à vapeur, l'électricité et Internet. Cette technologie devrait engendrer des gains de productivité et une croissance économique significatifs.

Neil Shearing, de Capital Economics, souligne la nécessité d'en savoir plus sur la manière dont les gouvernements envisagent d'exploiter les gains économiques potentiels de l'IA. S'il est crucial de s'attaquer aux risques liés à l'IA, il ne faut pas négliger les avantages économiques qu'elle promet.

Le sommet sur l'IA à Bletchley Park a marqué un tournant dans les discussions internationales sur la réglementation et la sécurité de l'IA. Alors que les gouvernements définissent la voie à suivre, ils doivent trouver un équilibre entre la prise en compte des menaces potentielles liées à l'IA et l'exploitation de ses immenses opportunités économiques. 

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES