Anthropic a accepté de verser 1,5 milliard de dollars pour régler un important procès pour violation de droits d'auteur, après que des auteurs ont affirmé que la société avait utilisé des livres piratés pour entraîner son chatbot d'intelligence artificielle Claude sans autorisation.
L'accord collectif proposé représente le plus important versement d'indemnités pour droits d'auteur jamais enregistré et le premier règlement majeur lié à l'intelligence artificielle. S'il est approuvé par le juge William Alsup de San Francisco, il permettra d'indemniser des centaines de milliers d'auteurs et établira une nouvelle norme quant à l'utilisation des œuvres protégées par le droit d'auteur par les entreprises spécialisées en IA.
Cette décision fait suite à une décision d'un juge américain autorisant un groupe d'auteurs à poursuivre la société d'intelligence artificielle Anthropic. Ces auteurs, tous des professionnels reconnus, affirment qu'Anthropic a utilisé leurs ouvrages protégés par le droit d'auteur pour entraîner son chatbot Claude sans autorisation ni compensation.
Ils affirment que l'entreprise est allée trop loin en utilisant leurs histoires pour rendre l'IA plus humaine, allant même jusqu'à imiter leurs styles d'écriture et leurs idées.
Des auteurs obtiennent un montant record dans une affaire de droits d'auteur
L'accord à l'amiable de 1,5 milliard de dollars concerne environ 500 000 livres piratés téléchargés par l'entreprise depuis des bibliothèques parallèles en ligne telles que Library Genesis, Pirate Library Mirror et la base de données Books3. Ces bibliothèques sont des sources populaires de copies numériques non autorisées de livres, utilisées par les chercheurs et les développeurs d'IA pour leurs ensembles de données. Depuis longtemps, auteurs, éditeurs et associations de défense des droits d'auteur critiquent ces plateformes, les accusant de porter atteinte à la protection du droit d'auteur.
L'accord prévoit que chaque auteur dont l'ouvrage a été illégalement utilisé par Anthropic comme données d'entraînement pour son IA recevra environ 3 000 $ de compensation. Si une enquête plus approfondie révèle d'autres œuvres utilisées par l'entreprise dans son ensemble de données, le montant total pourrait largement dépasser les 1,5 milliard de dollars initiaux.
L'affaire Anthropic a débuté en 2024 lorsque les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont porté plainte contre la société pour avoir copié leurs ouvrages sans autorisation. Par la suite, des centaines de milliers d'autres écrivains ont intenté une action en justice, affirmant que la société avait utilisé leurs œuvres pour entraîner son chatbot phare, Claude .
Les auteurs ont souligné l'ignorance d'Anthropic quant à l'obtention légitime des licences pour ce matériel, malgré sa situation financière, illustrée par ses puissants investisseurs, tels qu'Amazon et Alphabet, la société mère de Google.
En juin, le juge William Alsup a statué que l'utilisation de matériel protégé par le droit d'auteur pour entraîner des modèles d'IA pouvait être considérée comme un usage loyal si les œuvres étaient transformatrices. Il a toutefois affirmé qu'Anthropic avait enfreint la loi sur le droit d'auteur en téléchargeant et en stockant plus de 7 millions de livres piratés dans une bibliothèque centrale.
Cette décision exposait l'entreprise à des dommages et intérêts si le procès avait lieu comme prévu en décembre, car des experts juridiques avaient averti qu'Anthropic pourrait avoir à payer des centaines de milliards de dollars.
Anthropic évite un procès, mais fait toujours face à des risques juridiques
Les termes de l'accord à l'amiable de 1,5 milliard de dollars obligent Anthropic à détruire tous les exemplaires des livres piratés afin de l'empêcher de continuer à tirer profit de contenus non autorisés. Cependant, les experts estiment que cet accord ne protège pas l'entreprise contre de nouvelles poursuites. Les auteurs pourraient toujours intenter une action en justice si le système Claude générait des documents reproduisant des passages protégés par le droit d'auteur ou portant atteinte à leurs œuvres.
Anthropic a précisé que l'accord n'impliquait aucune reconnaissance de responsabilité, mais visait plutôt à éviter l'incertitude d'un long procès. La directrice juridique adjointe de l'entreprise, Aparna Sridhar, a expliqué qu'Anthropic restait déterminée à produire des solutions sûres, fiables et contribuant au progrès humain. Elle a ajouté que l'entreprise souhaitait se concentrer sur le développement d'outils améliorant la science et servant le public, plutôt que de s'enliser pendant des années dans des batailles juridiques.
D'autres entreprises spécialisées en intelligence artificielle, comme OpenAI, Microsoft et Meta, font toujours face à des poursuites judiciaires qui soulèvent des problèmes de droits d'auteur quasi dent . Un juge de San Francisco a récemment autorisé la poursuite d'une action en justice contre Meta , déclarant que l'utilisation de matériel protégé par le droit d'auteur sans autorisation est illégale « dans de nombreuses circonstances ».
Le règlement à l'amiable a permis à Anthropic d'éviter de porter le litige devant la Cour suprême des États-Unis, car cela aurait pu entraîner des changements considérables dans les lois nationales concernant l'application du droit d'utilisation équitable à l'intelligence artificielle.

