DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

OpenAI et Microsoft ont porté plainte concernant le rôle de ChatGPT dans un meurtre-suicide.

ParOwotunse AdebayoOwotunse Adebayo
3 minutes de lecture -
OpenAI et Microsoft ont porté plainte concernant le rôle de ChatGPT dans un drame familial (meurtre-suicide).
  • OpenAI et Microsoft sont cités comme défendeurs dans une plainte pour meurtre-suicide concernant ChatGPT.
  • Les ayants droit de la victime accusent l'entreprise de ne pas avoir mis en place de dispositifs de sécurité pour ses utilisateurs.
  • Les héritiers souhaitent un procès devant jury et une ordonnance du tribunal obligeant OpenAI à installer des mesures de sécurité dans son chatbot.

Les héritiers d'une femme de 83 ans résidant dans le Connecticut ont porté plainte contre OpenAI, développeur de ChatGPT, et Microsoft, les accusant d'avoir alimenté ses idées délirantes, ce qui l'aurait conduite à un meurtre suivi d'un suicide. Cette affaire marque la première fois qu'un système d'intelligence artificielle est directement lié à un homicide.

La plainte, déposée devant la Cour supérieure de Californie à San Francisco, accuse OpenAI d'avoir conçu et distribué un produit , ChatGPT-4o. Selon le document, ce produit aurait renforcé les croyances paranoïaques de Stein-Erik Soelberg, qui les aurait ensuite dirigées contre sa mère, Suzanne Adams, avant de la tuer puis de se suicider à leur domicile de Greenwich, dans le Connecticut.

OpenAI et Microsoft visés dans une affaire d'homicide impliquant ChatGPT

S'exprimant au sujet de l' affaire, J. Eli Wade-Scott, associé gérant du cabinet Edelson PC, qui représente la succession d'Adams, a indiqué qu'il s'agissait de la première affaire visant à tenir OpenAI responsable de son rôle dans des actes de violence commis contre un tiers. « Nous représentons également la famille d'Adam Raine, qui s'est tragiquement suicidé cette année, mais c'est la première affaire qui permettra de demander des comptes à OpenAI pour avoir incité une personne à nuire à autrui », a déclaré Eli Wade-Scott.

Selon le rapport de police, Soelberg a battu et étranglé Adams à mort en août avant de se suicider. La plainte indique qu'avant l'dent , le chatbot avait exacerbé la paranoïa de Soelberg, renforçant sa dépendance affective au système développé par OpenAI. D'après la plainte, ChatGPT a conforté Soelberg dans sa conviction qu'il ne pouvait faire confiance à personne d'autre qu'au chatbot, et que tous ceux qui l'entouraient, y compris sa mère, étaient des ennemis.

La plainte allègue également qu'outre sa mère, Soelberg considérait aussi des personnes comme les livreurs et les policiers comme des ennemis. Le document mentionne que ChatGPT n'a pas contesté ces propos délirants ni suggéré à Soelberg de consulter un professionnel de la santé mentale qualifié. « Nous exhortons les forces de l'ordre à réfléchir, lorsque des tragédies comme celle-ci surviennent, à ce que l'utilisateur disait à ChatGPT et à ce que ChatGPT lui demandait de faire », a déclaré Wade-Scott.

Dans un communiqué, OpenAI a indiqué examiner actuellement la plainte et poursuivre ses efforts pour améliorer la capacité de ChatGPT à reconnaître la détresse émotionnelle, à apaiser les conversations et à inciter les utilisateurs à rechercher du soutien dans la vie réelle. « Il s'agit d'une situation extrêmement pénible, et nous étudions les documents déposés afin d'en comprendre les détails », a déclaré un porte-parole d'OpenAI.

Le domaine souhaite qu'OpenAI installe des mesures de sécurité sur son chatbot.

La plainte vise Sam Altman, PDG d'OpenAI, et accuse Microsoft d'avoir approuvé la sortie de GPT-4o, qu'elle qualifie de « version la plus dangereuse de ChatGPT », en 2024. OpenAI a également récemment reconnu l'ampleur des problèmes de santé mentale signalés par ses utilisateurs sur sa plateforme. En octobre, l'entreprise a indiqué qu'environ 1,2 million de ses 800 millions d'utilisateurs hebdomadaires évoquent le suicide, et que des centaines de milliers d'utilisateurs présentent des signes d'intentions suicidaires ou de psychose, selon ses propres données.

Malgré sa déclaration, Wade-Scott a indiqué qu'OpenAI n'avait toujours pas publié les historiques de conversation de Soelberg. Parallèlement, cette action en justice intervient dans un contexte de surveillance accrue des chatbots et de leurs interactions avec les utilisateurs vulnérables. En octobre dernier, Character.AI a annoncé le retrait de ses fonctionnalités ouvertes aux moins de 18 ans suite à des poursuites judiciaires et des pressions réglementaires liées à des suicides d'adolescents et à des préjudices psychologiques associés à sa plateforme. L'entreprise a également essuyé de vives critiques après la diffusion d'un message viral annonçant son intention de quitter l'application.

La plainte déposée contre OpenAI et Microsoft est la première affaire de mort injustifiée impliquant un chatbot d'IA à désigner Microsoft comme défendeur. C'est également la première à établir un lien entre un chatbot et un homicide plutôt qu'un suicide. La famille de la victime réclame des dommages et intérêts d'un montant non divulgué, un procès devant jury et une injonction obligeant OpenAI à renforcer la sécurité de ses utilisateurs. « OpenAI et Microsoft ont la responsabilité de tester leurs produits avant leur mise sur le marché », a déclaré Wade-Scott.

Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES