Afin de garantir la transparence et la responsabilité dans le domaine de l'intelligence artificielle (IA), la Commission de protection des données personnelles (PDPC) a publié de nouvelles lignes directrices définissant des mesures d'information des consommateurs quant à l'utilisation de leurs données personnelles pour l'entraînement des systèmes d'IA. Ces lignes directrices, intitulées « Lignes directrices relatives à l'utilisation des données personnelles dans les systèmes de recommandation et de décision basés sur l'IA », visent à répondre aux préoccupations concernant la protection des données et les implications éthiques de la technologie de l'IA.
Formation des systèmes d’IA – Lignes directrices pour une utilisation transparente des données
Les lignes directrices, publiées le 1er mars, soulignent l'importance d'informer les utilisateurs sur les raisons du traitement de leurs données personnelles et sur la manière dont celles-ci contribuent au fonctionnement des systèmes d'IA. Les entreprises sont tenues de préciser aux consommateurs la pertinence de leurs données pour les services fournis et d'expliciter les indicateurs influençant les décisions prises par l'IA. Par exemple, les utilisateurs de services de streaming doivent être informés que leur historique de visionnage est utilisé pour améliorer les recommandations de films, en les adaptant à leurs préférences en fonction des genres ou des films qu'ils ont le plus souvent regardés.
Ces lignes directrices précisent les conditions d'utilisation des données personnelles sans consentement supplémentaire une fois collectées conformément à la loi sur la protection des données personnelles. Les entreprises peuvent utiliser ces données à diverses fins, notamment la recherche et l'amélioration de leurs activités, par exemple pour perfectionner les modèles d'IA afin de mieux comprendre les préférences des clients ou pour optimiser les systèmes de gestion des ressources humaines en vue de la recommandation de candidats. Il est important de souligner que ces lignes directrices insistent sur la nécessité de l'anonymisation et de la minimisation des données afin d'atténuer les risques de cybersécurité et de garantir la confidentialité des utilisateurs.
Par ailleurs, les lignes directrices soulignent l’importance d’un suivi et d’un examen continus afin de garantir la conformité aux principes de protection des données et aux meilleures pratiques en constante évolution. Les entreprises sont encouragées à évaluer régulièrement l’efficacité de leurs procédures de traitement des données, notamment en ce qui concerne les systèmes d’IA, et à procéder aux ajustements nécessaires pour préserver la confidentialité et la confiance des utilisateurs.
Répondre aux préoccupations et suggestions du secteur
La publication de ces lignes directrices fait suite aux inquiétudes exprimées par le secteur lors de la Conférence de Singapour sur l'IA en décembre 2023. Les parties prenantes, notamment des acteurs des secteurs technologique, juridique et financier, ont fait part de leurs préoccupations concernant la confidentialité des données dans le domaine de l'IA, ce qui a conduit à une consultation publique menée par la PDPC et qui s'est conclue en août 2023. En particulier, la société de cybersécurité Kaspersky a souligné le manque général de sensibilisation des consommateurs concernant la collecte de données à des fins d'entraînement de l'IA. Elle a recommandé d'obtenir un consentement explicite lors des phases de développement et de test des modèles d'IA, et d'offrir aux utilisateurs la possibilité de refuser que leurs données soient utilisées pour l'entraînement de l'IA.
Par ailleurs, les acteurs du secteur ont salué ces lignes directrices, y voyant un pas vers une plus grande confiance et une meilleure transparence des systèmes d'IA. Les entreprises sont désormais mieux armées pour appréhender la complexité de l'utilisation des données en IA de manière éthique et responsable, favorisant ainsi une culture de responsabilité et d'autonomisation des consommateurs.
Alors que l'IA continue de s'intégrer à divers secteurs, garantir la transparence et la responsabilité dans l'utilisation des données personnelles demeure primordial. Avec la publication de ces lignes directrices, la PDPC s'efforce de trouver un équilibre entre la promotion de l'innovation en IA et la protection de la vie privée des utilisateurs. Cependant, des difficultés persistent quant à la sensibilisation efficace des consommateurs aux subtilités de l'utilisation des données par l'IA. Comment les entreprises peuvent-elles améliorer la compréhension et le consentement des utilisateurs concernant l'utilisation de leurs données personnelles pour l'entraînement des systèmes d'IA, tout en préservant leur confiance ?

