L'Union européenne prévoit d'investir 1,4 milliard d'euros dans la recherche sur l'intelligence artificielle (IA) et les technologies de pointe l'année prochaine.
Il s'agit d'une tentative de l'Europe pour rattraper son retard sur les géants technologiques comme les États-Unis et la Chine. Ce financement, en hausse de près de 200 millions d'euros par rapport à l'année dernière, proviendra du Conseil européen de l'innovation (EIC) dans le cadre du programme Horizon Europe de l'UE.
Selon des responsables de l'UE, ce financement vise à relancer l'économie européenne en misant sur la croissance technologique, notamment dans le domaine de l'intelligence artificielle. La commissaire européenne Iliana Ivanova l'a expliqué ainsi :
« Le Conseil européen de l’innovation est devenu un acteur majeur du soutien de l’UE à l’innovation de rupture. En 2025, il renforcera encore davantage les technologies de pointe de l’UE grâce à des ressources supplémentaires, s’élevant à 1,4 milliard d’euros provenant d’Horizon Europe, notre programme de recherche et d’innovation. »
L'intelligence artificielle en Europe est à la traîne
Lors d'une visite à Copenhague, Jensen Huang, PDG de Nvidia, a déclaré sans ambages que l'Europe accusait un retard en matière d'investissements dans l'IA par rapport aux États-Unis et à la Chine. Il a insisté : « L'UE doit accélérer ses progrès dans le domaine de l'IA. Chaque pays prend conscience que les données constituent une ressource nationale. »
Nvidia, le moteur de nombreuses avancées en IA, dont ChatGPT d'OpenAI, est le premier fabricant mondial de GPU, proposant du matériel essentiel aux applications d'IA.
Huang se trouvait au Danemark pour le lancement de Gefion, un supercalculateur doté de 1 528 GPU, construit par Nvidia en collaboration avec la Fondation Novo Nordisk et le Fonds danois d'exportation et d'investissement. Le Danemark prévoit d'utiliser ce puissant système pour accélérer la recherche dans les domaines de la découverte de médicaments, du diagnostic des maladies et des sciences de la vie complexes.
« L’ère de la découverte de médicaments assistée par ordinateur doit s’instaurer au cours de cette décennie », a-t-il ajouté. Le rôle majeur de Nvidia dans le domaine du matériel d’IA souligne la dépendance de l’Europe vis-à-vis des technologies non européennes, une dépendance que l’UE entend réduire en renforçant ses propres capacités en IA.
Peu d'entreprises européennes, comme la française Mistral et l'allemande Aleph Alpha, tentent de percer le marché de l'IA. L'Europe possède également la première réglementation mondiale en matière d'IA, connue sous le nom de règlement européen sur l'IA, qui encadre les applications de l'IA. Ce texte législatif est entré en vigueur en août et sera pleinement opérationnel d'ici août 2026.
En quoi consiste cette loi ?
La loi européenne sur l'IA instaure un cadre réglementaire pour les systèmes d'IA, fondé sur une approche par les risques. Les applications seront classées selon leurs impacts potentiels sur la sécurité, les droits humains et le bien-être de la société.
« Certains systèmes sont totalement interdits, tandis que les systèmes jugés « à haut risque » sont soumis à des exigences et à des évaluations plus strictes avant leur déploiement », ont-ils expliqué.
En vertu de cette législation, toutes les entreprises opérant au sein de l'UE qui déploient ou développent l'IA sont classées en plusieurs catégories, telles que les fournisseurs, les déployeurs, les distributeurs, les importateurs, les fabricants de produits et les représentants agréés.
Cette loi a une portée extraterritoriale, ce qui signifie qu'elle s'applique à toute entreprise utilisant l'IA au sein de l'UE, quel que soit son siège social. La conformité des applications à haut risque sera rigoureuse : les entreprises devront réaliser des évaluations et respecter des procédures de documentation strictes.
Ces réglementations sont étroitement alignées sur les normes du RGPD, en mettant l'accent sur la transparence, la responsabilité et l'utilisation éthique. Pour satisfaire à ces exigences, les organisations devront mettre en œuvre des formations pour leur personnel, une gouvernance rigoureuse et des protocoles de cybersécurité.
L’UE a commencé à élaborer des codes de bonnes pratiques et des modèles spécifiques pour aider les entreprises à respecter ces normes de conformité.
Les experts recommandent aux entreprises qui ne sont pas sûres de leurs responsabilités de solliciter des conseils professionnels et d'utiliser des outils comme le vérificateur de conformité à la loi européenne sur l'IA pour vérifier leur conformité à ces règles.
Malgré cette réglementation stricte, certains affirment que la loi européenne sur l'IA pourrait inciter les entreprises européennes à innover de manière plus responsable, ce qui pourrait leur offrir un avantage concurrentiel à long terme.

