Your bank is using your money. You’re getting the scraps.WATCH FREE

Google plaide pour des règles moins strictes en matière de droits d'auteur sur l'IA dans le cadre du « plan d'action pour l'IA » de Trump

Dans cet article :

  • Google plaide pour un assouplissement des règles de droit d'auteur concernant l'entraînement des IA et défend les exceptions d'« utilisation équitable ».
  • L'entreprise technologique cherche à instaurer des contrôles équilibrés à l'exportation afin de renforcer la compétitivité américaine dans le domaine de l'IA.
  • Dans sa proposition politique, Google a plaidé pour un maintien des investissements en R&D et s'est opposé aux coupes budgétaires.

En réponse à l'appel de Trump en faveur d'un plan d'action pour l'IA, Google a publié une proposition de politique générale. Emboîtant le pas à OpenAI, Google demande à l'administration Trump d'assouplir les restrictions de droits d'auteur sur l'entraînement des IA. 

De nombreux observateurs voient dans la position de Google un signe supplémentaire que les entreprises technologiques unissent leurs forces pour façonner les règles fédérales relatives aux technologies émergentes d'intelligence artificielle.

Au cœur des recommandations de Google figure la nécessité d'assouplir les barrières liées à la propriété intellectuelle. L'entreprise souligne que les exceptions relatives à l'utilisation équitable et à l'exploration de textes et de données devraient être reconnues comme essentielles à la poursuite des recherches en intelligence artificielle. 

Google affirme que les exceptions relatives à l'exploration de textes et de données sont essentielles à la recherche en IA

La proposition de politique de Google suggère que l'entraînement de modèles sur des données protégées par le droit d'auteur mais accessibles au public devrait être autorisé sans restrictions excessives, l'entreprise insistant sur le fait que cette pratique ne cause pas de préjudice significatif aux titulaires de droits. Cependant, des détracteurs de cette approche ont intenté des poursuites contre Google pour utilisation de données protégées par le droit d'auteur sans compensation. À l'heure actuelle, les tribunaux américains n'ont pas encore defidéfinitivement la question de savoir si les règles d'utilisation équitable protègent les entreprises d'IA dans ces cas.

Outre l'assouplissement des restrictions sur les droits d'auteur, le plan de Google vise à façonner les politiques d'exportation des puces d'IA et du matériel connexe. L'entreprise prévient que les réglementations récemment introduites sous l'administration Biden pourraient nuire à la compétitivité des États-Unis sur les marchés mondiaux de l'IA. 

Google dénonce des « charges disproportionnées » imposées aux fournisseurs de services de cloud computing, contrastant ainsi sa position avec celle de Microsoft. En janvier, Microsoft se disait «dent» de pouvoir se conformer aux mêmes règles que Google accuse désormais de freiner l'innovation et l'activité commerciale.

Voir aussi :  Des hackers éthiques défient des chatbots IA lors d’une compétition Def Con pour découvrir leurs vulnérabilités

Les règles d'exportation actuelles, conçues pour limiter la circulation de matériel d'IA de pointe vers les pays défavorisés, prévoient des exceptions pour certaines entreprises qui ont besoin d'importantes quantités de puces haut de gamme. Cependant, Google craint que ces limitations ne nuisent aux intérêts économiques à long terme des États-Unis en freinant les progrès de l'IA, notamment dans un contexte de concurrence internationale croissante. Le document de politique préconise une approche équilibrée qui garantisse la sécurité nationale tout en permettant aux entreprises américaines de prospérer à l'étranger.

La proposition demandait au gouvernement de préserver les subventions accordées

La proposition souligne également l'importance d'un investissement « à long terme et soutenu » dans la recherche et le développement fondamentaux. Face aux risques liés aux restrictions budgétaires, Google conseille au gouvernement de préserver les subventions essentielles et de renforcer le soutien à la R&D en phase de démarrage, afin que les scientifiques et les organismes puissent accéder à des ressources informatiques sophistiquées et à des modèles avancés. Cette position s'inscrit dans la volonté de la nouvelle administration de redéfinir les priorités nationales, même si les récentes mesures de réduction de certains postes budgétaires fédéraux ont suscité des inquiétudes au sein des institutions de recherche.

L'argument de Google en faveur d'une réglementation fédérale plus cohérente témoigne des tensions croissantes entre les législateurs. À peine deux mois après le début de l'année 2025, 781 projets de loi relatifs à l'IA ont été déposés aux États-Unis, illustrant la fragmentation du paysage politique. Dans son document, Google cite la multitude de lois étatiques sur l'IA comme preuve du caractère trop disparate de l'approche actuelle. L'entreprise privilégie un cadre unifié de protection de la vie privée et de sécurité afin d'éviter que les développeurs et les utilisateurs ne soient confrontés à des exigences contradictoires selon les États.

Concernant la question de la responsabilité, Google affirme que les développeurs d'IA ne peuvent pas toujours contrôler le déploiement de leurs modèles. Certains responsables politiques ont évoqué la possibilité d'imposer une responsabilité aux développeurs quant à l'utilisation de leurs modèles, mais l'entreprise rétorque que, bien souvent, les abus résultent d'activités qui échappent à leur contrôle direct. 

Voir aussi :  Les jetons d’IA affichent les meilleures performances tandis que les fabricants de semi-conducteurs engrangent des profits considérables

SB 1047 de Californie, finalement rejeté, était l'une de ces mesures qui définissaient les responsabilités des créateurs d'IA, notamment en imposant des tests de sécurité et en précisant dans quelles circonstances un développeur pouvait être tenu responsable d'un préjudice. L'entreprise technologique s'est opposée à cette législation, arguant que les utilisateurs des modèles – plutôt que leurs créateurs – sont souvent mieux placés pour évaluer les risques en aval et garantir la sécurité du système.

La proposition critique notamment les nouvelles obligations de transparence, telles que celles prévues par la future loi européenne sur l'IA. Cette législation obligerait les développeurs à fournir des informations détaillées sur la conception et l'entraînement de leurs modèles, ainsi que des indications sur les risques potentiels et les éventuelles lacunes de performance. 

Google avertit que ces exigences pourraient involontairement exposer des secrets commerciaux ou inciter des adversaires à pirater les systèmes d'IA. Des mesures similaires ont déjà vu le jour dans certaines régions des États-Unis, comme la loi AB 2013 en Californie, qui oblige les développeurs d'IA à publier un résumé des sources de données d'entraînement.

Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan