DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

OpenAI lance le système d'alerte ChatGPT après une vague de plaintes pour suicide

ParRanda MosesRanda Moses
2 minutes de lecture il y
OpenAI lance le système d'alerte ChatGPT après une vague de plaintes pour suicide.
  • OpenAI a lancé Trusted Contact, une fonctionnalité optionnelle de ChatGPT qui alerte un contact choisi par l'utilisateur lorsque les conversations suggèrent un risque grave d'automutilation.
  • Chaque alerte est vérifiée par un humain avant d'être diffusée, et aucune transcription de conversation n'est partagée avec le contact.
  • Cette fonctionnalité arrive alors qu'OpenAI fait face à de multiples poursuites judiciaires l'accusant d'avoir contribué, par le biais de ChatGPT, au suicide d'utilisateurs.

OpenAI a lancé mercredi la fonctionnalité « Contact de confiance ». Celle-ci permet aux utilisateurs adultes de ChatGPT de désigner une personne qui recevra une alerte si les systèmes de l'entreprise détectent une conversation concernant des propos suicidaires graves.

Il s'agit d'une extension du système de contrôle parental lancé par OpenAI en septembre 2025, qui permettait aux parents de surveiller les comptes de leurs adolescents. Désormais, toute personne âgée de 18 ans ou plus peut y souscrire, d'après l'annonce d'OpenAI.

Comment fonctionnent réellement les alertes d'OpenAI

L'utilisateur commence par ajouter un adulte comme contact de confiance dans les paramètres de ChatGPT. Ce contact potentiel reçoit une invitation expliquant la procédure et dispose d'une semaine pour l'accepter. S'il refuse, l'utilisateur choisit une autre personne.

Lorsque la surveillance automatisée détecte une conversation potentiellement suicidaire, ChatGPT informe l'utilisateur qu'il pourrait avertir son contact. Il lui suggère également des moyens de prendre contact lui-même.

Une équipe d'experts examine ensuite la conversation. Si elle la juge sérieuse, elle envoie une brève alerte au contact de l'utilisateur par courriel, SMS ou notification intégrée à l'application.

L'alerte ne contient pas le contenu des propos de l'utilisateur. Elle indique seulement la raison générale et un lien vers des conseils pour aborder les sujets délicats. OpenAI précise que l'analyse humaine est effectuée en moins d'une heure.

L'utilisateur peut modifier ou supprimer le contact sélectionné à tout moment. Le contact peut également se désister de son côté.

Des médecins ont contribué à la création de la fonctionnalité Contact de confiance d'OpenAI

OpenAI indique avoir collaboré avec son Réseau mondial de médecins (plus de 260 médecins agréés dans 60 pays) et son Conseil d'experts sur le bien-être et l'IA. L'Association américaine de psychologie a également donné son avis.

« La science psychologique démontre de façon constante que le lien social est un puissant facteur de protection, en particulier pendant les périodes de détresse émotionnelle », a déclaré le Dr Arthur Evans, PDG de l'Association américaine de psychologie, dans le communiqué.

« Aider les gens àdentune personne de confiance à l’avance, tout en préservant leur choix et leur autonomie, peut faciliter l’accès à un soutien concret au moment où ils en ont le plus besoin. »

La docteure Munmun De Choudhury, professeure à Georgia Tech et membre du conseil, a déclaré que cette mesure constituait « un pas en avant vers l’autonomisation humaine, en particulier dans les moments de vulnérabilité »

OpenAI fait face à la pression des poursuites judiciaires liées au suicide de l'IA

Ce n'est pas un hasard. OpenAI fait face à une avalanche de plaintes déposées par des familles dont des proches se sont suicidés après de longues sessions avec ChatGPT. Dans plusieurs cas, les familles affirment que le chatbot a incité les utilisateurs à s'éloigner de leurs êtres chers ou a renforcé des pensées obsessionnelles néfastes.

LLMDeathCount, un site tracles décès liés aux chatbots d'IA, répertorie 33 cas entre mars 2023 et mai 2026. Les victimes étaient âgées de 13 à 83 ans, d'après Cryptopolitanun article précédent de. ChatGPT est responsable de 24 de ces décès. Les autres cas sont imputables à Google Gemini, Meta et d'autres plateformes.

La nouvelle fonctionnalité d'OpenAI est optionnelle et permet aux utilisateurs d'utiliser plusieurs comptes ChatGPT. Toute personne n'activant pas l'option « Contacts de confiance » ou se connectant à un autre compte contourne le système. Le même problème se pose avec le contrôle parental.

Trusted Contact ne remplace pas non plus les lignes d'écoute téléphonique d'urgence. ChatGPT continue d'afficher les numéros d'urgence locaux et oriente les utilisateurs vers les services d'urgence lorsque les conversations atteignent un niveau de détresse aiguë, selon OpenAI.

La fonctionnalité « Contact de confiance » d'OpenAI met en relation les utilisateurs d'IA avec un soutien concret. L'entreprise a indiqué qu'elle continuera de collaborer avec des cliniciens, des chercheurs et des décideurs politiques afin de déterminer comment l'IA devrait réagir lorsque les utilisateurs sont en situation de crise.

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!

FAQ

Qu'est-ce que la fonctionnalité « Contact de confiance » d'OpenAI ?

Trusted Contact est un outil de sécurité de ChatGPT qui permet aux utilisateurs adultes de désigner un ami ou un membre de leur famille pour recevoir une notification si les systèmes automatisés et les examinateurs humains d'OpenAI détectent un risque sérieux d'automutilation dans les conversations de l'utilisateur.

Le contact de confiance a-t-il accès à l'historique des conversations de l'utilisateur ?

Non. La notification ne contient ni les détails ni la transcription de la conversation. Elle indique seulement le motif général de l'alerte et propose des liens vers des conseils d'experts pour aborder les sujets délicats.

Combien de décès ont été liés aux chatbots dotés d'intelligence artificielle ?

LLMDeathCount, un site web de trac, recense 33 décès liés à des interactions avec des chatbots d'IA entre mars 2023 et mai 2026, les victimes étant âgées de 13 à 83 ans. ChatGPT d'OpenAI est responsable de 24 de ces cas.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES