Anthropic a admis jeudi qu'une référence défectueuse dans un journal est le résultat de son propre assistant d'IA Claude et a qualifié la lance «une erreur embarrassante et involontaire».
Universal, Concord et Abkco ont poursuivi Anthropic l'année dernière, alléguant que la société basée à San Francisco avait copié leurs paroles en gros pour former Claude. Le cas est l'un des nombreux cas de haut niveau pour savoir si les entreprises technologiques peuvent utiliser des travaux protégés par le droit d'auteur sans l'autorisation de former des systèmes d'IA.
Reuters a rapporté que lors d'une audience mardi, l'avocat Matt Oppenheim, qui représente Universal Music Group, Abkco et Concord, a déclaré au tribunal que la citation du chatbot était une «fabrication complète» pour soutenir le cas d'Anthropic.
La juge magistrat des États-Unis Susan Van Keulen a qualifié la dernière allégation de «problème très grave et très grave» et a souligné «un monde de différence entre une citation manquée et une hallucination générée par l'IA». Le juge a ordonné aux parties d'expliquer pleinement l'affaire dans leurs soumissions écrites.
Les avocats anthropiques disent que Claude ai a gâché pendant la mise en forme
Dans une réponse écrite jeudi, l'avocat anthropique Ivana Dukanovic a déclaré que la référence était réelle mais qu'elle a été mal gérée lorsque Claude a été invité à le formater de style juridique. Elle a expliqué que le mauvais volume et les numéros de page produits par le bot ont été fixés lors d'une revue manuelle, mais les erreurs de libellé ont glissé sans préavis.
"Bien que fournissant le titre de publication, l'année de publication et le lien avec la source fournie, la citation retournée comprenait un titre inexact et des auteurs incorrects", a écrit Dukanovic, ajoutant que le problème n'était pas une "fabrication de l'autorité".
Anthropic s'est excusé pour la confusion et a déclaré que le glissement n'était ni délibéré ni une tentative d'induire en erreur le tribunal.
Les erreurs de l'IA continuent de causer des ennuis devant le tribunal
Plusieurs avocats ont récemment fait face à des critiques ou à des sanctions pour s'appuyer sur des matériaux générés par l'AI qui se sont avérés faux. Dans son dossier, Dukanovic a déclaré que le cabinet d'avocats Latham & Watkins, qui représente anthropique, a ajouté «plusieurs niveaux de revue supplémentaires pour travailler pour s'assurer que cela ne se reproduira plus».
L'incident rejoint une liste croissante d'erreurs d'audience liées à une IA générative.
La semaine dernière, un juge de Californie a réprimandé deux cabinets d'avocats pour avoir omis de dire qu'ils avaient utilisé l'IA pour élaborer un bref supplémentaire rempli de références «fausses» qui n'existaient pas ». En décembre, un chercheur en désinformation a admis que Chatgpt avait inventé des citations dans un dossier qu'il avait préparé.
Cryptopolitan Academy: fatiguée des balançoires du marché? Découvrez comment DeFi peut vous aider à créer un revenu passif stable. Inscrivez-vous maintenant