L'association de défense de la vie privée Noyb a porté plainte contre OpenAI auprès de l'Autorité autrichienne de protection des données (APD), l'accusant d'enfreindre plusieurs lois européennes sur la protection des données, notamment son produit ChatGPT. Noyb affirme que ChatGPT diffuse des informations erronées sur les personnes, alors que le Règlement général sur la protection des données (RGPD) de l'UE exige que ces informations soient exactes et que les personnes concernées aient un accès complet à leurs données.
OpenAI fait face à des accusations de non-respect du RGPD
Noyb a été fondée par le célèbre avocat et militant Max Schrems, et elle a affirmé que ChatGPT avait partagé une fausse date d'anniversaire concernant une personnalité publique célèbre, et lorsque celle-ci a demandé l'autorisation d'accéder aux données le concernant et de les supprimer, sa demande a été refusée par OpenAI.
Noyb affirme que, selon le RGPD de l'UE, toute information concernant une personne doit être exacte et cette personne doit avoir accès à ses données et à leur source. Or, selon Noyb, OpenAI déclare être incapable de corriger les informations contenues dans son modèle ChatGPT. L'entreprise est également incapable de déterminer l'origine de ces informations et ignore même quelles données ChatGPT stocke sur les individus.
Noyb affirme qu'OpenAI est au courant du problème et semble s'en désintéresser, son argument étant que :
« La précision factuelle des grands modèles de langage demeure un domaine de recherche actif. »
Noyb a fait remarquer que des informations erronées peuvent être tolérées lorsque ChatGPT les diffuse lorsque lesdentl'utilisent pour leurs devoirs, mais a déclaré que c'est clairement inacceptable pour les individus, car le droit de l'UE exige que les données personnelles soient exactes.
Les hallucinations rendent les chatbots non conformes à la réglementation européenne
Noyb a mentionné que les modèles d'IA sont sujets à des hallucinations et produisent des informations erronées. Ils ont remis en question la procédure technique d'OpenAI pour la génération d'informations, en soulignant que, selon le raisonnement d'OpenAI,
« Répondre aux requêtes des utilisateurs en prédisant les mots les plus susceptibles d'apparaître en réponse à chaque invite. »

Noyb soutient que cela signifie que, même si l'entreprise dispose de vastes ensembles de données pour entraîner son modèle, elle ne peut garantir que les réponses fournies aux utilisateurs soient factuellement correctes.
L'avocat de Noyb en matière de protection des données, Maartje de Gaaf, a déclaré :
« Inventer de fausses informations est déjàmatic en soi. Mais lorsqu’il s’agit de fausses informations concernant des individus, les conséquences peuvent être graves. »
Source : Noyb.
Il a également déclaré que toute technologie doit respecter les lois et ne peut pas les contourner, car selon lui, si un outil ne peut pas produire de résultats corrects sur les individus, alors il ne peut pas être utilisé à cette fin. Il a également ajouté que les entreprises ne sont pas encore techniquement suffisamment compétentes pour créer des chatbots conformes à la législation européenne en la matière.
Les outils d'IA générative font l'objet d'un examen rigoureux de la part des autorités européennes de protection des données. En 2023, l'autorité italienne de protection des données avait temporairement restreint la protection des données. Les conséquences restent incertaines, mais selon Noyb , OpenAI ne prétend même pas se conformer à la législation européenne.

