COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Chatgpt a frappé la plainte de la vie privée sur les hallucinations diffamatoires

Dans cet article :

  • Chatgpt fait l'objet d'une enquête en Europe concernant les plaintes de confidentialité pour sa tendance à halluciner de fausses informations. 
  • du RGPD exige que les personnes chargées de données personnelles garantissent sa précision.
  • Les violations confirmées du RGPD peuvent entraîner des amendes pouvant aller jusqu'à 4% du chiffre d'affaires annuel mondial.

Le chatbot d'Open AI, Chatgpt, fait l'objet d'une enquête en Europe concernant les plaintes de confidentialité. Il a montré une tendance à halluciner de fausses informations. Dangereux, non? Celui-ci pourrait être difficile à ignorer pour les régulateurs.

Une personne en Norvège obtient l'aide du Centre européen des droits numériques, NOYB , après avoir trouvé Chatgpt renvoyant de fausses informations. Le chatbot a déclaré qu'il avait été reconnu coupable d'avoir tué deux de ses enfants et tenté d'en tuer un troisième. Ces informations pourraient le rattraper plus tard.

La partie folle est qu'Openai ne donne pas aux gens un moyen de corriger les mauvaises informations que l'IA compose à leur sujet. Au lieu de cela, Openai propose de bloquer les réponses à ce type de questions. La principale question est de savoir si les informations sont rejetées ou pourraient être générées plus tard.

D'un autre côté, le règlement général sur la protection des données (RGPD) de l'Union européenne donne aux gens l'accès à leurs données et le droit de corriger leurs données personnelles. Une autre partie de cette loi sur la sécurité des données indique que les personnes en charge des données personnelles doivent s'assurer qu'elle est correcte. Cela fait de cette question un cas.

Joakim Söderberg, un avocat de la protection des données de NOYB, a déclaré: «Le RGPD est clair. Les données personnelles doivent être exactes. […] Si ce n'est pas le cas, les utilisateurs ont le droit de le faire changer pour refléter la vérité.»

Il a ajouté: "Affichant les utilisateurs de Chatgpt un minuscule avertissement que le chatbot peut faire clairement des erreurs ne suffit pas.

Détails des enquêtes en cours

Le chatbot raconte une triste histoire sur Arve Hjalmar Holmen lorsqu'on lui a demandé qui il était. Il indique qu'il a été reconnu coupable de meurtre d'enfants et d'avoir pris 21 ans de prison pour avoir tué deux de ses propres enfants.

Voir aussi  l'agent opérateur d'Openai obtient un coup de pouce avec un nouveau modèle d'IA
Capture d'écran de Chatgpt racontant une histoire sur Arve Hjalmar Holmen

Maintenant, pourquoi est-ce encore plus dangereux? Même s'il n'est pas vrai que Hjalmar Holmen est un meurtrier d'enfants, Noyb souligne que la réponse de Chatgpt inclut certaines vérités. Par exemple, la personne en question a trois enfants.

Le chatbot a également correctementdentles sexes de ses enfants et a correctement nommé sa ville natale. Cependant, le fait que l'IA a également inventé des mensonges aussi terribles le rend encore plus étranger et plus dérangeant.

Un représentant de NOYB a déclaré qu'ils ne savaient pas pourquoi le chatbot constituait une expérience si détaillée mais fausse pour cette personne. Un porte-parole a déclaré qu'ils avaient fait des recherches pour s'assurer que ce n'était pas seulement une confusion avec une autre personne. Le porte-parole a déclaré qu'ils avaient parcouru les archives des journaux mais n'avaient pas trouvé de raison pour laquelle l'IA avait inventé le meurtre d'enfants.

À ce stade, la meilleure explication est que les modèles de grands langues, comme celui qui alimente le chatppt, fait essentiellement la prédiction des mots suivants à grande échelle. 

Pour cette raison, les ensembles de données utilisés pour former l'outil contenaient de nombreuses histoires de Filicide qui ont affecté les mots qu'il a choisis de répondre à une question sur un homme nommé. Cependant, quelle que soit la raison, il est clair que ces types de sorties ne sont pas du tout corrects.

Pendant ce temps, Noyb dit que le chatbot a cessé de raconter des mensonges dangereux sur Hjalmar Holmen après le modèle d'IA qui l'exécute a été mis à jour. Ce changement est lié au fait que l'outil recherche désormais des informations sur Internet sur les personnes lorsqu'on lui demande qui ils sont.

Même si Chatgpt semble avoir cessé de répandre des mensonges nuisibles à propos de Hjalmar Holmen, Noyb et Hjalmar Holmen sont toujours inquiets. Et si le modèle d'IA avait peut-être tenu mal et endommager les informations à son sujet?

Voir aussi  Alibaba dévoile le plan de réseau cloud mondial pour desservir la prise de contrôle de la technologie mondiale chinoise

La Norwegian Data Protection Authority a reçu une plainte contre OpenAI. Noyb espère que le chien de garde décidera qu'il a le pouvoir d'enquêter car la plainte est destinée à la succursale américaine d'Openai. La plainte stipule que son bureau de l'Irlande n'est pas seul responsable des décisions de produits qui affectent les Européens.

Le sort d'Openai

Ce n'est pas une première pour Openai. Les gens se sont précédemment plaints de la création par Chatgpt de données personnelles incorrectes, comme une mauvaise date de naissance ou des informations biographiques incorrectes. 

Le chien de surveillance de la protection des données d'Italie est intervenu tôt sous le RGPD et a temporairement arrêté l'accès au chatpt dans le pays au printemps 2023. Après cela, le chien de garde a infligé une amende à Openai 15 millions d'euros pour l'utilisation des données des personnes sans raison valable de le faire.

Il est également intéressant de noter que le chien de garde de la protection des données de la Pologne examine une plainte en matière de confidentialité contre Chatgpt depuis septembre 2023 et n'a toujours pas pris de décision.

Depuis lors, les responsables de la vie privée en Europe sont devenus plus méfiants de Genai. En effet, ils déterminent toujours la meilleure façon d'appliquer le RGPD à ces outils d'IA populaires.

Cependant, dans une plainte antérieure concernant Noyb Chatgpt, la Commission de protection des données de l'Irlande (DPC) a déclaré il y a deux ans que les gens ne devraient pas se précipiter pour interdire les outils Genai, par exemple. Le DPC est chargé de l'application du RGPD. Au lieu de cela, cela signifie que les fonctionnaires devraient prendre un certain temps pour comprendre comment fonctionne la loi.

Il semble que la nouvelle plainte Chatgpt de Noyb soit destinée à réveiller les responsables de la vie privée aux dangers des AIS qui hallucinaient. Les violations confirmées du RGPD peuvent entraîner des amendes pouvant aller jusqu'à 4% du chiffre d'affaires annuel mondial.

Votre nouvelle crypto mérite l'attention - la différence clé vous place sur plus de 250 sites supérieurs

Lien de partage:

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Choix de l'éditeur

Chargement des articles Choix de l'éditeur...

- la newsletter crypto qui vous maintient en tête -

Les marchés se déplacent rapidement.

Nous nous déplaçons plus vite.

Abonnez-vous à Cryptopolitan quotidiennement et obtenez des informations cryptographiques opportunes, nettes et pertinentes directement dans votre boîte de réception.

Rejoignez maintenant et
ne manquez jamais un déménagement.

Entrez. Obtenez les faits.
Avancez.

Abonnez-vous à CryptoPolitan