En réponse à l'appel de Trump en faveur d'un plan d'action pour l'IA, Google a publié une proposition de politique générale. Emboîtant le pas à OpenAI, Google demande à l'administration Trump d'assouplir les restrictions de droits d'auteur sur l'entraînement des IA.
De nombreux observateurs voient dans la position de Google un signe supplémentaire que les entreprises technologiques unissent leurs forces pour façonner les règles fédérales relatives aux technologies émergentes d'intelligence artificielle.
Au cœur des recommandations de Google figure la nécessité d'assouplir les barrières liées à la propriété intellectuelle. L'entreprise souligne que les exceptions relatives à l'utilisation équitable et à l'exploration de textes et de données devraient être reconnues comme essentielles à la poursuite des recherches en intelligence artificielle.
Google affirme que les exceptions relatives à l'exploration de textes et de données sont essentielles à la recherche en IA
La proposition de politique de Google suggère que l'entraînement de modèles sur des données protégées par le droit d'auteur mais accessibles au public devrait être autorisé sans restrictions excessives, l'entreprise insistant sur le fait que cette pratique ne cause pas de préjudice significatif aux titulaires de droits. Cependant, des détracteurs de cette approche ont intenté des poursuites contre Google pour utilisation de données protégées par le droit d'auteur sans compensation. À l'heure actuelle, les tribunaux américains n'ont pas encore defidéfinitivement la question de savoir si les règles d'utilisation équitable protègent les entreprises d'IA dans ces cas.
Outre l'assouplissement des restrictions sur les droits d'auteur, le plan de Google vise à façonner les politiques d'exportation des puces d'IA et du matériel connexe. L'entreprise prévient que les réglementations récemment introduites sous l'administration Biden pourraient nuire à la compétitivité des États-Unis sur les marchés mondiaux de l'IA.
Google dénonce des « charges disproportionnées » imposées aux fournisseurs de services de cloud computing, contrastant ainsi sa position avec celle de Microsoft. En janvier, Microsoft se disait «dent» de pouvoir se conformer aux mêmes règles que Google accuse désormais de freiner l'innovation et l'activité commerciale.
Les règles d'exportation actuelles, conçues pour limiter la circulation de matériel d'IA de pointe vers les pays défavorisés, prévoient des exceptions pour certaines entreprises qui ont besoin d'importantes quantités de puces haut de gamme. Cependant, Google craint que ces limitations ne nuisent aux intérêts économiques à long terme des États-Unis en freinant les progrès de l'IA, notamment dans un contexte de concurrence internationale croissante. Le document de politique préconise une approche équilibrée qui garantisse la sécurité nationale tout en permettant aux entreprises américaines de prospérer à l'étranger.
La proposition demandait au gouvernement de préserver les subventions accordées
La proposition souligne également l'importance d'un investissement « à long terme et soutenu » dans la recherche et le développement fondamentaux. Face aux risques liés aux restrictions budgétaires, Google conseille au gouvernement de préserver les subventions essentielles et de renforcer le soutien à la R&D en phase de démarrage, afin que les scientifiques et les organismes puissent accéder à des ressources informatiques sophistiquées et à des modèles avancés. Cette position s'inscrit dans la volonté de la nouvelle administration de redéfinir les priorités nationales, même si les récentes mesures de réduction de certains postes budgétaires fédéraux ont suscité des inquiétudes au sein des institutions de recherche.
L'argument de Google en faveur d'une réglementation fédérale plus cohérente témoigne des tensions croissantes entre les législateurs. À peine deux mois après le début de l'année 2025, 781 projets de loi relatifs à l'IA ont été déposés aux États-Unis, illustrant la fragmentation du paysage politique. Dans son document, Google cite la multitude de lois étatiques sur l'IA comme preuve du caractère trop disparate de l'approche actuelle. L'entreprise privilégie un cadre unifié de protection de la vie privée et de sécurité afin d'éviter que les développeurs et les utilisateurs ne soient confrontés à des exigences contradictoires selon les États.
À peine 66 jours après le début de 2025, le nombre de projets de loi relatifs à l'intelligence artificielle en attente aux États-Unis dépasse déjà officiellement le total de toute l'année 2024. 👀
2024 : 743 projets de loi relatifs à l’IA au total pour l’année
2025 : 781 projets de loi relatifs à l’IA en seulement 66 jours pic.twitter.com/xrYPVDYgR1– Adam Thierer (@AdamThierer) 7 mars 2025
Concernant la question de la responsabilité, Google affirme que les développeurs d'IA ne peuvent pas toujours contrôler le déploiement de leurs modèles. Certains responsables politiques ont évoqué la possibilité d'imposer une responsabilité aux développeurs quant à l'utilisation de leurs modèles, mais l'entreprise rétorque que, bien souvent, les abus résultent d'activités qui échappent à leur contrôle direct.
SB 1047 de Californie, finalement rejeté, était l'une de ces mesures qui définissaient les responsabilités des créateurs d'IA, notamment en imposant des tests de sécurité et en précisant dans quelles circonstances un développeur pouvait être tenu responsable d'un préjudice. L'entreprise technologique s'est opposée à cette législation, arguant que les utilisateurs des modèles – plutôt que leurs créateurs – sont souvent mieux placés pour évaluer les risques en aval et garantir la sécurité du système.
La proposition critique notamment les nouvelles obligations de transparence, telles que celles prévues par la future loi européenne sur l'IA. Cette législation obligerait les développeurs à fournir des informations détaillées sur la conception et l'entraînement de leurs modèles, ainsi que des indications sur les risques potentiels et les éventuelles lacunes de performance.
Google avertit que ces exigences pourraient involontairement exposer des secrets commerciaux ou inciter des adversaires à pirater les systèmes d'IA. Des mesures similaires ont déjà vu le jour dans certaines régions des États-Unis, comme la loi AB 2013 en Californie, qui oblige les développeurs d'IA à publier un résumé des sources de données d'entraînement.

