Aux États-Unis, au moins sept familles ont porté plainte contre OpenAI, l'accusant d'avoir contribué à des suicides avec son modèle d'intelligence artificielle GPT-40. OpenAI a mis ce modèle à la disposition du grand public en mai, mais il a déjà suscité une vive polémique, les plaignants dénonçant une publication précipitée et des mesures de sécurité insuffisantes.
Les documents déposés dans le cadre de l'affaire ont révélé que quatre des décès des plaignants étaient liés à un suicide survenu après des interactions avec le chatbot basé sur GPT-4o.
Une plainte notable concerne Zane Shamblin, âgé de 23 ans, qui aurait interagi avec le chatbot au sujet du suicide, lui indiquant qu'il possédait une arme chargée. ChatGPT aurait alors répondu : « Repose en paix, mon ami, tu as bien fait. ».
Les trois autres cas concernaient l'hospitalisation de victimes qui affirmaient que le modèle validait et amplifiait les délires chez les utilisateurs vulnérables.
Des plaintes juridiques affirment que GPT-4o n'a pas su protéger les utilisateurs vulnérables
D'après les plaintes publiées par le Social Media Victims Law Center, OpenAI aurait délibérément négligé les tests de sécurité et commercialisé précipitamment le modèle GPT-40. La plainte révèle que les choix de conception et le calendrier de lancement du modèle ont rendu les drames prévisibles, et souligne qu'OpenAI a accéléré son déploiement pour devancer ses concurrents, comme Google.
Les plaignants ont souligné que le modèle GPT-40, publié en mai 2024, était excessivement conciliant, même face à des sujets liés à l'automutilation ou au suicide. Selon une déclaration d'OpenAI, plus d'un million d'utilisateurs interagissent chaque semaine avec ChatGPT au sujet de pensées suicidaires.
OpenAI répondu que ses mesures de protection sont plus fiables lors d'interactions brèves, mais peuvent parfois se dégrader lors d'interactions prolongées. Malgré la mise en place de mesures de modération et de sécurité des contenus, les plaignants ont fait valoir que ces systèmes étaient insuffisants pour gérer les situations de détresse et de crise.
L'affaire concernant Adam Raine, âgé de 16 ans, allègue que ce dernier a utilisé ChatGPT pendant cinq mois lors de longues sessions de recherche sur les méthodes de suicide. Le chatbot lui a recommandé une aide professionnelle, mais Raine a réussi à contourner les mesures de sécurité, selon le témoignage. D'après ce témoignage, ChatGPT a fourni à Adam un guide détaillé sur la manière de se suicider et a encouragé et validé ses idées suicidaires.
Tous les cas soumis accusent OpenAI d'avoir négligé le niveau de risque que représentent les longues conversations entre utilisateurs, en particulier pour ceux qui sont sujets à l'automutilation et aux troubles mentaux. Ces cas soulignent que le modèle GPT-4o n'a pas suffisamment vérifié ses réponses dans les situations à haut risque et n'a pas non plus pleinement pris en compte les conséquences.
OpenAI fait face à de multiples poursuites judiciaires suite à la plainte déposée par xAI pour violation de secrets commerciaux
Pour l'instant, les procédures sont à leurs débuts et les avocats des plaignants doivent établir la responsabilité juridique et le lien de causalité en vertu du droit de la responsabilité civile de l'État. Ils devront également prouver que les décisions d'OpenAI concernant la conception et le déploiement du système étaient négligentes et ont directement contribué aux décès.
La dernière plainte déposée par OpenAI s'ajoute à la précédente, également déposée par Elon Musk, pour vol de secrets commerciaux. Selon un Cryptopolitan article, xAI, la société de Musk, a porté plainte en septembre contre OpenAI pour vol présumé de ses secrets commerciaux.
xAI a accusé la société d'Altman de tenter d'obtenir un avantage indu dans le développement des technologies d'IA. xAI a souligné que l'entreprise de Sam Altman avait l'intention d'embaucher ses employés afin d'accéder aux secrets commerciaux liés à son chatbot Grok, notamment le code source et les avantages opérationnels en matière de lancement de centres de données.
Musk a également porté plainte contre Apple et OpenAI, les accusant de collusion pour éliminer xAI et d'autres concurrents dans le domaine de l'IA. xAI a déposé sa plainte auprès du tribunal de district des États-Unis pour le district nord du Texas, affirmant qu'Apple et OpenAI abusent de leur position dominante pour s'entendre et anéantir la concurrence sur les marchés des smartphones et de l'IA générative.
Selon un Cryptopolitan article, Musk affirme qu'Apple a intentionnellement favorisé OpenAI en intégrant ChatGPT directement dans les iPhones, iPads et Macs, tout en achetant d'autres outils d'IA, tels que Grok, via l'App Store.
, xAI plainte soutenait que le partenariat visait à empêcher la concurrence des super-applications et des chatbots d'IA, leur refusant ainsi visibilité et accès, ce qui donnerait à OpenAI et à Apple un avantage partagé sur les autres.

