DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Le département du Commerce américain propose de nouvelles règles de déclaration pour les fournisseurs d'IA et de cloud

ParChris MurithiChris Murithi
Temps de lecture : 2 minutes
Une étude révèle que les développeurs de logiciels expérimentés rendent leur travail 19 % plus lentement lorsqu'ils utilisent l'IA
  • Les États-Unis imposent aux développeurs d'IA de déclarer leurs mesures de cybersécurité et les résultats de leurs tests de risques.
  • Les fournisseurs de services cloud sont soumis à de nouvelles règles de déclaration afin de garantir la sécurité des technologies d'IA.
  • Le ministère du Commerce introduit des réglementations plus strictes en matière d'IA et de sécurité du cloud.

Le ministère du Commerce américain a proposé de nouvelles exigences en matière de rapports pour les développeurs d'intelligence artificielle avancée et les fournisseurs de services cloud afin de garantir la sûreté et la sécurité de cette technologie.

Le Bureau de l'industrie et de la sécurité (BIS) a clairement indiqué que les entreprises innovantes et les sociétés de gestion de pôles d'excellence en ingénierie qui investissent dans la création de supercalculateurs auront l'obligation de soumettre certaines activités de développement essentielles aux autorités fédérales. Cette mesure vise à réduire les menaces de sécurité liées à la cybersécurité et à une utilisation inappropriée des ressources d'intelligence artificielle.

Selon la nouvelle proposition, les développeurs seront tenus de divulguer des informations détaillées concernant leurs systèmes d'intelligence artificielle, notamment sur les mesures de cybersécurité et les tests d'intrusion. Ces tests, appelés « red teaming », consistent à évaluer les utilisations malveillantes potentielles d'une IA, comme le cyberterrorisme ou la création d'armes de destruction massive.

Les développeurs d'IA sont désormais soumis à de nouvelles obligations de déclaration des mesures de cybersécurité et des tests de risques

La proposition du département du Commerce exigerait également que les développeurs d'IA incluent dans leurs rapports les résultats des exercices d'intrusion, notamment ceux liés aux capacités dangereuses telles que les cyberattaques. Cette méthode, issue des simulations de la Guerre froide,dentd'identifier les risques en simulant des attaques ou des intrusions.

Les organisations seraient tenues de mettre à jour régulièrement leur capacité à résister aux attaques, même celles provenant d'intérêts étrangers ou d'acteurs non étatiques susceptibles d'utiliser le système à des fins malveillantes critiques.

L'intelligence artificielle générative, capable de créer du texte, des images ou des vidéos à partir des instructions de l'utilisateur, suscite des inquiétudes. Bien que cette technologie offre des avancées dans de nombreux domaines, elle a également accru les craintes quant aux menaces potentielles telles que les pertes d'emplois, les ingérences électorales et le risque de domination de l'intelligence artificielle sur les humains.

Les nouvelles lignes directrices en matière de rapports visent à garantir le développement sûr et fiable des modèles d'IA, réduisant ainsi les risques de concrétisation de ces dangers.

Les fournisseurs de services cloud sont tenus de respecter de nouvelles normes de reporting en matière de sécurité et de développement de l'IA

Outre les développeurs d'intelligence artificielle, les règles proposées concerneront également les fournisseurs de services cloud tels qu'Amazon Web Services (AWS), Google Cloud et Microsoft Azure. Ces plateformes, essentielles au développement de l'intelligence artificielle, devront se conformer à des normes strictes en matière de cybersécurité de leur infrastructure. Le département du Commerce a souligné que ces informations sont importantes pour éviter que d'autres pays n'utilisent abusivement la technologie américaine.

Cette initiative réglementaire fait suite au décretdent signé par Joe Biden en octobre 2023. Ce décret exige que les développeurs de technologies d'intelligence artificielle soumettent les résultats de leurs tests de sécurité au gouvernement américain avant de mettre leurs technologies à la disposition du public. Le projet de texte publié par le département du Commerce s'inscrit dans cet objectif plus large visant à protéger la sécurité nationale, la santé publique et l'économie du pays contre les menaces que représente l'intelligence artificielle.

Cette proposition fait suite aux efforts précédents entrepris par l'administration Biden pour renforcer les mesures visant à empêcher la Chine d'accéder à la technologie américaine en matière de développement de l'intelligence artificielle, ce qui témoigne de préoccupations accrues en matière de sécurité au sein de ce secteur en pleine expansion.

Vous laissez encore la banque garder le meilleur ? Regardez notre vidéo gratuite sur comment devenir votre propre banque.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES