DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

ChatGPT finit par reconnaître « David Mayer », mais échoue sur 5 noms au milieu de poursuites judiciaires concernant l'IA

ParShraddha SharmaShraddha Sharma
2 minutes de lecture -
Logo OpenAI de Chatgpt sur fond noir
  • ChatGPT ne plante plus lorsqu'on lui demande d'appeler « David Mayer »
  • L'outil OpenAI cesse de répondre lorsqu'on lui demande d'autres noms spécifiques.
  • Les poursuites judiciaires en cours soulignent la nécessité pour les entreprises spécialisées en IA de donner la priorité à la protection des données.

Les outils d'intelligence artificielle (IA) comme ChatGPT d'OpenAI peuvent accomplir de nombreuses fonctions, mais il arrive que les utilisateurs découvrent des dysfonctionnements. Récemment, des utilisateurs ont signalé que ChatGPT cessait de fonctionner lorsqu'on lui demandait certains noms, comme celui de David Mayer.

La communauté s'interroge désormais sur la manière dont le modèle gère les données sensibles ou juridiquement complexes. Il convient d'attendre que les outils d'IA répondent davantage aux préoccupations relatives à la protection de la vie privée, compte tenu des nombreuses poursuites judiciaires.

ChatGPT ne révèle pas qui est David Mayer

d'OpenAI aurait cessé de fonctionner le week-end dernier lorsqu'on lui a posé des questions sur certains noms. TechCrunch a rapporté que des utilisateurs ont indiqué avoir utilisé une liste de noms interdits, dont « David Mayer », qui a provoqué le blocage ou le plantage du chatbot sans qu'il puisse répondre.

Lorsque Cryptopolitan a vérifié mardi comment la messagerie instantanée basée sur le modèle de langage Generative Pre-trained Transformer (GPT) avait répondu, les résultats étaient similaires mais pas tout à fait identiques.

Comment ChatGPT a-t-il répondu à une question concernant David Mayer ?
Voici comment ChatGPT a répondu à une question concernant David Mayer

Il s'avère que David Mayer n'est plus un nom interdit. Selon ChatGPT-4o, Mayer est un nom assez courant, même sile système n'a pas pu identifier la personne. Interrogé sur le bug précédent, ChatGPT a minimisé l'incident en déclarant :

Je vois ce que vous voulez dire ! Il a peut-être y avoir eu des cas de problèmes ou d'erreurs de formatage, d'orthographe ou de génération de contenu, mais rien de spécifiquement lié à une orthographe systématiquement erronée du nom « David Mayer »

Il était également recommandé de signaler les réponses « étranges et incohérentes ».

D'autres noms — Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza — ont provoqué des dysfonctionnements du système pendant le week-end et à nouveau mardi lors de notre vérification.

OpenAI pourrait traiter les données sensibles différemment
OpenAI pourrait traiter les données sensibles différemment – ​​Rapport

Le rapport indique que ces noms appartiennent à des personnalités publiques ou semi-publiques, comme des journalistes, des avocats ou des personnes ayant pu être impliquées dans des litiges juridiques ou relatifs à la protection de la vie privée avec OpenAI. Par exemple, la personne nommée Hood aurait été usurpée par ChatGPT par le passé, ce qui a donné lieu à des discussions juridiques avec OpenAI.

Les poursuites judiciaires se sont accumulées contre les entreprises

TechCrunch suppose qu'OpenAI pourrait être prudent quant à la liste des noms afin de traiter différemment les informations sensibles ou protégées par la loi. Il pourrait s'agir d'une mesure visant à se conformer aux lois sur la protection de la vie privée ou aux accords juridiques. Toutefois, un dysfonctionnement du code pourrait empêcher le chatbot de répondre aux demandes d'informations concernant les noms mentionnés.

Au fil des ans, plusieurs procès ont opposé des entreprises spécialisées en IA, accusées soit de générer des informations erronées, soit de violer la réglementation. En 2020, dans l'affaire Janecyk contre International Business Machines, le photographe Tim Janecyk affirmé qu'IBM avait utilisé indûment des clichés pris par lui à des fins de recherche, sans son consentement. Plus récemment, l'IA Gemini de Google a été critiquée pour ses capacités de génération d'images, ce qui a entraîné sa suspension temporaire. a En 2023, dans le cadre du recours collectif PM contre OpenAI LP, OpenAI a été accusée d'avoir utilisé des « informations privées volées » sans autorisation.

En 2024, l'agence de presse indienne ANI aurait intenté un procès contre OpenAI pour avoir utilisé du matériel protégé par le droit d'auteur de la société de médias pour entraîner le LLM.

À mesure que les outils d'IA s'intègrent de plus en plus à notre quotidien, desdentcomme ceux-ci soulignent l'importance des considérations éthiques et juridiques dans leur développement. Qu'il s'agisse de protéger la vie privée, de garantir l'exactitude des informations ou d'éviter les dysfonctionnements liés aux données sensibles, des entreprises comme OpenAI doivent instaurer la confiance tout en perfectionnant leur technologie. Ces défis nous rappellent que même les systèmes d'IA les plus avancés nécessitent une vigilance constante pour faire face aux complexités techniques, éthiques et juridiques.

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES