xAI, la société d'Elon Musk, soutient la section du code européen relative à la sécurité de l'IA, tandis que les géants de la tech restent divisés

- xAI révèle qu'elle signera le chapitre du code européen sur la sécurité de l'IA, mais qu'elle en exclut d'autres pour le moment.
- Google soutient le code malgré les critiques, tandis que Meta refuse, invoquant des raisons juridiques.
- Ce code volontaire vise à faciliter la transition vers l'entrée en vigueur de la loi européenne sur l'IA.
La société d'intelligence artificielle d'Elon Musk, xAI, annonce qu'elle adhérera au chapitre sur la sûreté et la sécurité du code de bonnes pratiques de l'Union européenne en matière d'IA, une décision qui la place en partie en phase avec les règles de référence du bloc en matière d'IA.
Ce code, rédigé par 13 contributeursdent , est volontaire, mais il apporte une clarté juridique aux entreprises qui l'adoptent dans le cadre de leur préparation à la pleine application de la loi européenne sur l'IA.
xAI et d'autres entreprises technologiques ont des sentiments mitigés à propos du code
Dans un article publié sur X, xAI a reconnu que si la loi et le code relatifs à l'IA favorisent la sécurité, d'autres parties sont profondément préjudiciables à l'innovation et que ses dispositions en matière de droit d'auteur sont clairement excessives.
L'entreprise a toutefois confirmé qu'elle signerait le chapitre relatif à la sûreté et à la sécurité.
« xAI soutient la sécurité de l'IA et signera le chapitre sur la sûreté et la sécurité du Code de bonnes pratiques de la loi européenne sur l'IA. »
~ xAI.
L'entreprise n'a pas précisé si elle comptait adopter les deux autres sections du code, à savoir la transparence et le droit d'auteur, qui s'appliqueront toutes deux aux fournisseurs d'IA à usage général en vertu de la future réglementation.
La position de xAI accentue les divisions croissantes entre les principaux développeurs d'IA quant à la manière de se conformer au cadre réglementaire de l'UE. Google, filiale d'Alphabet, s'est engagée à signer l'intégralité du code de bonnes pratiques, malgré de sérieuses réserves exprimées sur certains aspects des règles.
« Nous restons préoccupés par le fait que la loi et le code relatifs à l'IA risquent de ralentir le développement et le déploiement de l'IA en Europe », a déclaré Kent Walker, présidentdent affaires mondiales de Google, dans un article de blog. Il a toutefois ajouté que les récentes modifications apportées au code l'avaient amélioré et que Google procéderait à sa signature.
En revanche, Meta a refusé de signer. La maison mère de Facebook affirme que le code crée une incertitude juridique et comprend des mesures qui vont bien au-delà des exigences de la loi sur l'IA.
Le géant technologique a averti que ce cadre pourrait dissuader les entreprises de développer des systèmes d'IA fondamentaux en Europe, qualifiant l'orientation de l'UE de « mauvaise voie en matière d'IA »
Microsoft et OpenAI n'ont pas confirmé s'ils signeraient le code.
L'UE prépare le secteur technologique à l'application de la loi sur l'IA
Le code de bonnes pratiques de l'UE en matière d'IA est conçu comme un outil transitoire, destiné à aider les entreprises à se conformer à la future réglementation sur l'IA qui entrera en vigueur le 2 août pour les modèles à fort impact. Ces règles visent les développeurs de modèles d'IA dits « à risque systémique », tels que ceux développés par Google, Meta, Anthropic et OpenAI.
Bien que non contraignant juridiquement, ce code définit les attentes en matière de documentation, de sources de contenu et de réponse aux réclamations relatives au droit d'auteur. Les entreprises qui y adhèrent bénéficieront probablement d'une collaboration réglementaire simplifiée et d'une réduction des incertitudes juridiques.
La loi européenne sur l'IA, un texte législatif de grande envergure, vise à réglementer l'IA en fonction des niveaux de risque. Elle interdit purement et simplement certaines utilisations, comme les systèmes de manipulation ou l'évaluation sociale, tout en imposant des exigences strictes aux utilisations « à haut risque » dans des domaines tels que l'éducation, l'emploi et la biométrie.
Les développeurs de modèles avancés devront réaliser des évaluations des risques, tenir des registres de transparence et se conformer à des normes de qualité strictes. Ceux qui ne respectent pas ces exigences s'exposeront à des amendes pouvant atteindre 7 % de leur chiffre d'affaires annuel mondial.
Les réactions divergentes des leaders de l'IA suggèrent qu'un fossé se creuse dans la façon dont les entreprises technologiques perçoivent la réglementation au sein de l'UE.
Tandis que certains, comme Google, optent pour un engagement stratégique, d'autres, comme Meta, résistent, craignant que les règles n'étouffent l'innovation.
La décision de xAI de ne soutenir que certaines parties du code pourrait représenter un juste milieu, reconnaissant l'importance de la sécurité de l'IA tout en résistant à ce qu'elle considère comme une surréglementation.
Alors que l'UE poursuit son programme réglementaire, de plus en plus d'entreprises technologiques devront faire un choix : coopérer rapidement ou risquer un conflit plus tard.
Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














