Your bank is using your money. You’re getting the scraps.WATCH FREE

Les hallucinations de l'IA ont causé de nouveaux problèmes juridiques à OpenAI

Dans cet article :

  • Une plainte a été déposée contre OpenAI en Autriche par une organisation de défense des droits numériques appelée Noyb, en raison des hallucinations de son logiciel ChatGPT.
  • ChatGPT a fourni des informations erronées concernant la date d'anniversaire d'une personnalité publique et a refusé de supprimer ou de corriger ces informations.
  • L'avocat de Noyb affirme que les entreprises ne sont pas en mesure de créer des chatbots qui répondent aux exigences du droit européen.

L'association de défense de la vie privée Noyb a porté plainte contre OpenAI auprès de l'Autorité autrichienne de protection des données (APD), l'accusant d'enfreindre plusieurs lois européennes sur la protection des données, notamment son produit ChatGPT. Noyb affirme que ChatGPT diffuse des informations erronées sur les personnes, alors que le Règlement général sur la protection des données (RGPD) de l'UE exige que ces informations soient exactes et que les personnes concernées aient un accès complet à leurs données.

OpenAI fait face à des accusations de non-respect du RGPD

Noyb a été fondée par le célèbre avocat et militant Max Schrems, et elle a affirmé que ChatGPT avait partagé une fausse date d'anniversaire concernant une personnalité publique célèbre, et lorsque celle-ci a demandé l'autorisation d'accéder aux données le concernant et de les supprimer, sa demande a été refusée par OpenAI.

Noyb affirme que, selon le RGPD de l'UE, toute information concernant une personne doit être exacte et cette personne doit avoir accès à ses données et à leur source. Or, selon Noyb, OpenAI déclare être incapable de corriger les informations contenues dans son modèle ChatGPT. L'entreprise est également incapable de déterminer l'origine de ces informations et ignore même quelles données ChatGPT stocke sur les individus. 

Noyb affirme qu'OpenAI est au courant du problème et semble s'en désintéresser, son argument étant que :

« La précision factuelle des grands modèles de langage demeure un domaine de recherche actif. »

Noyb a fait remarquer que des informations erronées peuvent être tolérées lorsque ChatGPT les diffuse lorsque lesdentl'utilisent pour leurs devoirs, mais a déclaré que c'est clairement inacceptable pour les individus, car le droit de l'UE exige que les données personnelles soient exactes. 

Voir aussi :  La Pologne renforce sa technologie de défense grâce à une prise de participation d’un fabricant finlandais de satellites de surveillance, face à la menace russe.

Les hallucinations rendent les chatbots non conformes à la réglementation européenne

Noyb a mentionné que les modèles d'IA sont sujets à des hallucinations et produisent des informations erronées. Ils ont remis en question la procédure technique d'OpenAI pour la génération d'informations, en soulignant que, selon le raisonnement d'OpenAI,

« Répondre aux requêtes des utilisateurs en prédisant les mots les plus susceptibles d'apparaître en réponse à chaque invite. »

Source : Statista .

Noyb soutient que cela signifie que, même si l'entreprise dispose de vastes ensembles de données pour entraîner son modèle, elle ne peut garantir que les réponses fournies aux utilisateurs soient factuellement correctes.

L'avocat de Noyb en matière de protection des données, Maartje de Gaaf, a déclaré :

« Inventer de fausses informations est déjàmatic en soi. Mais lorsqu’il s’agit de fausses informations concernant des individus, les conséquences peuvent être graves. »

Source : Noyb.

Il a également déclaré que toute technologie doit respecter les lois et ne peut pas les contourner, car selon lui, si un outil ne peut pas produire de résultats corrects sur les individus, alors il ne peut pas être utilisé à cette fin. Il a également ajouté que les entreprises ne sont pas encore techniquement suffisamment compétentes pour créer des chatbots conformes à la législation européenne en la matière.

Les outils d'IA générative font l'objet d'un examen rigoureux de la part des autorités européennes de protection des données. En 2023, l'autorité italienne de protection des données avait temporairement restreint la protection des données. Les conséquences restent incertaines, mais selon Noyb , OpenAI ne prétend même pas se conformer à la législation européenne.

Voir aussi :  L’Espagne intente une action en justice contre X, Meta et TikTok concernant les risques d’abus de l’IA

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter .

Partager le lien :

Avertissement :  Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitan décline toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous vous recommandons vivement d’effectuer vos tron dent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan