Dans une décision historique susceptible de redéfinir l'avenir de l'intelligence artificielle et du droit d'auteur, un juge fédéral américain a statué qu'Anthropic n'avait pas enfreint la loi en utilisant des livres protégés par le droit d'auteur pour entraîner ses systèmes.
Mais Anthropic – la société d'IA à l'origine du chatbot Claude – n'est cependant pas totalement tirée d'affaire ; elle pourrait encore se voir infliger de lourdes sanctions pour la manière dont elle a géré ces comptes.
Mais Anthropic a également franchi les limites légales
La décision a été rendue lundi soir par le juge de district américain William Alsup à San Francisco, qui a estimé que l'entraînement du modèle d'IA d'Anthropic à l'aide des œuvres des auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson relevait de l'utilisation équitable.
Cette doctrine, qui autorise une utilisation limitée de contenu protégé par le droit d'auteur sans autorisation, a joué un rôle central dans la décision d'Alsup, l'une des premières à aborder la question de l'utilisation équitable à l'ère de l'IA générative.
« Comme tout lecteur aspirant à devenir écrivain, les modèles de langage à grande échelle d'Anthropic (IA) entraînés sur des œuvres ne cherchent pas à les devancer, à les reproduire ou à les supplanter, mais à prendre un virage à 180 degrés et à créer quelque chose de différent », a écrit Alsup.
Bien qu'Alsup ait donné raison à Anthropic concernant l'utilisation des livres pour l'entraînement de l'IA, il a clairement indiqué que la société avait outrepassé les limites légales en stockant plus de 7 millions de titres piratés dans ce qu'il a qualifié de « bibliothèque centrale ». Selon le juge, cela ne relevait pas de l'usage loyal.
Un procès est prévu en décembre afin de déterminer le montant des dommages et intérêts qu'Anthropic devra verser aux auteurs, le cas échéant. Aux États-Unis, la loi sur le droit d'auteur prévoit des dommages et intérêts pouvant atteindre 150 000 dollars par œuvre en cas de contrefaçon intentionnelle.
Anthropic n'a pas encore commenté publiquement la décision, mais le verdict divise l'affaire en deux : la partie relative à la formation est protégée, mais celle relative au stockage ne l'est pas.
L'affaire Anthropic pourrait-elle signaler une victoire pour l'industrie de l'IA ?
Cette affaire s'inscrit dans un mouvement plus large de poursuites judiciaires intentées par des auteurs et des médias contre des entreprises comme OpenAI, Meta et Microsoft, concernant leurs méthodes de développement de systèmes d'IA. La question centrale est la suivante : ces entreprises devraient-elles être autorisées à utiliser des œuvres protégées par le droit d'auteur, souvent sans autorisation, pour développer des outils qui, d'une certaine manière, concurrencent les créateurs originaux ?
La décision d'Alsup donne un coup de pouce aux développeurs d'IA, dont beaucoup affirment que leurs modèles produisent un contenu nouveau et transformateur et ne devraient pas être obligés de payer chaque titulaire de droits d'auteur dont le travail a été utilisé.
« Comme tout lecteur aspirant à devenir écrivain, les modèles d'Anthropic ont été formés à l'aide de ces livres, non pas pour les copier, mais pour créer quelque chose de totalement nouveau. »
Aussi.
Anthropic avait déclaré au tribunal que la copie des livres était essentielle pour étudier les styles d'écriture ettracdes éléments non protégeables par le droit d'auteur, comme la structure et le ton, afin d'aider son IA à créer du contenu original.
L'entreprise a fait valoir que ce type d'apprentissage favorise en réalité la créativité humaine, ce que le droit d'auteur est censé encourager.
Mais Alsup a également reproché à Anthropic de se procurer des copies numériques piratées des livres. Alors que la société insistait sur le fait que la source du matériel importait peu, Alsup s'y esttronopposé.
Dans sa décision, il a déclaré : « Cette ordonnance laisse à penser que personne accusé d'infraction ne pourrait jamais s'acquitter de la charge de la preuve en démontrant pourquoi le téléchargement de copies sources à partir de sites pirates qu'il aurait pu acheter ou auxquelles il aurait pu accéder légalement était en soi raisonnablement nécessaire à toute utilisation équitable ultérieure. »
En résumé, si l'utilisation finale est protégée, la manière dont Anthropic s'est procuré les données ne l'est pas. Cette distinction pourrait influencer la façon dont les entreprises spécialisées en IA collectent les données d'entraînement à l'avenir et potentiellement encourager des pratiques d'approvisionnement en données plus éthiques, ou du moins légales.
Alors que de plus en plus de poursuites pour violation de droits d'auteur visent les entreprises spécialisées en intelligence artificielle, cette décision pourrait constituer un précédent important dent Le procès de décembre déterminera si la méthode de stockage de contenu d'Anthropic justifie des sanctions financières et, le cas échéant, quel en sera le montant.

