L'Union européenne a franchi une étape importante vers la réglementation du domaine en pleine évolution de l'intelligence artificielle (IA) en donnant son approbation finale à la loi sur l'intelligence artificielle, une législation novatrice qui vise à établir un cadre complet pour le développement et l'utilisation des systèmes d'IA au sein du bloc des 27 nations.
La loi sur l'IA, en préparation depuis cinq ans, a été approuvée à une très large majorité par les membres du Parlement européen, marquant un moment charnière dans la volonté de garantir que la technologie de l'IA soit développée et déployée de manière responsable et centrée sur l'humain.
Un indicateur mondial
La loi sur l'intelligence artificielle devrait servir de modèle à l'échelle mondiale pour les autres gouvernements confrontés au défi de la réglementation de cette technologie. Dragos Tudorache, député roumain et co-responsable des négociations parlementaires sur le projet de loi, a souligné l'importance de cette législation : « La loi sur l'IA oriente l'avenir de l'IA vers une approche centrée sur l'humain, où l'humain maîtrise la technologie et où celle-ci nous aide à tirer parti des nouvelles découvertes, de la croissance économique, du progrès social et à libérer le potentiel humain. »
Approche fondée sur les risques
La loi sur l'IA adopte une approche fondée sur les risques pour réglementer les systèmes d'IA, le niveau de contrôle augmentant proportionnellement aux risques potentiels posés par la technologie. Les systèmes à faible risque, tels que les systèmes de recommandation de contenu ou les filtres anti-spam, seront soumis à des règles allégées, exigeant principalement la transparence quant à l'utilisation de l'IA.
En revanche, les applications à haut risque de l'IA, notamment les dispositifs médicaux et les systèmes d'infrastructures critiques, seront soumises à des exigences plus strictes, telles que l'utilisation de données de haute qualité et la fourniture d'informations claires aux utilisateurs.
La nouvelle législation interdit formellement certaines utilisations de l'IA jugées trop risquées. Il s'agit notamment des systèmes d'évaluation sociale qui régissent le comportement humain, de certains types de police prédictive et des systèmes de reconnaissance des émotions dans les écoles et les entreprises. De plus, la loi interdit aux forces de l'ordre d'utiliser des systèmes d'dentbiométrique à distance basés sur l'IA dans les espaces publics, sauf en cas de crimes graves tels que les enlèvements ou le terrorisme.
Le règlement vise également à endiguer la montée en puissance fulgurante des modèles d'IA généralistes, tels que ChatGPT d'OpenAI, en instaurant des dispositions relatives à leur contrôle. Les développeurs de ces modèles seront tenus de fournir des résumés détaillés des données utilisées pour l'entraînement, de respecter le droit d'auteur européen et d'indiquer clairement que les deepfakes générés par l'IA sont des manipulations artificielles.
Gestion des risques systémiques
Consciente des « risques systémiques » que peuvent engendrer les modèles d'IA puissants, la loi sur l'IA impose un contrôle renforcé aux systèmes les plus vastes et les plus avancés, notamment GPT4 d'OpenAI et Gemini de Google. Les entreprises fournissant ces systèmes devront évaluer et atténuer les risques, signaler lesdentgraves, mettre en œuvre des mesures de cybersécurité et divulguer leurs données de consommation énergétique.
Les inquiétudes de l'UE proviennent du risque que ces puissants systèmes d'IA provoquent desdentgraves, soient utilisés à des fins de cyberattaques ou répandent des biais nuisibles dans de nombreuses applications, affectant ainsi un grand nombre de personnes.
Si la loi sur l'IA vise à établir un cadre pour un développement responsable de l'IA, elle cherche également à promouvoir l'innovation au sein de l'UE. Les géants du numérique ont généralement soutenu la nécessité d'une réglementation, tout en exerçant un lobbying intense pour que les règles leur soient favorables.
Le PDG d'OpenAI, Sam Altman, a d'abord créé la polémique en suggérant que l'entreprise pourrait se retirer d'Europe si elle ne pouvait pas se conformer à la loi sur l'IA, mais il est ensuite revenutracses propos, déclarant qu'il n'était pas prévu de partir.
Face aux progrès rapides de la technologie de l'IA, la loi européenne sur l'intelligence artificielle constitue une initiative pionnière visant à trouver un équilibre entre la promotion de l'innovation et la prise en compte des risques et défis potentiels posés par cette technologie transformatrice.

