OpenAI a annoncé lundi qu'elle s'associait à Bryan Cranston, à la SAG-AFTRA et à d'importants groupes de talents hollywoodiens pour lutter contre le problème croissant des deepfakes créés à l'aide de son outil vidéo d'IA, Sora.
Cette situation fait suite à la diffusion en ligne de fausses vidéos du visage et de la voix de Cranston, apparues juste après la sortie de Sora 2 fin septembre. Cranston ignorait leur existence jusqu'à ce qu'on les lui montre, et il n'a pas apprécié.
S’exprimant par l’intermédiaire de SAG-AFTRA, qui a publié un message à ce sujet sur X, Cranston a déclaré : « Je suis reconnaissant à OpenAI pour sa politique et pour avoir amélioré ses garde-fous, et j’espère qu’eux et toutes les entreprises impliquées dans ce travail respecteront notre droit personnel et professionnel de gérer la reproduction de notre voix et de notre image. »
Cette déclaration est apparue juste au moment où OpenAI annonçait son partenariat avec SAG-AFTRA, l'agence de Cranston, United Talent Agency (UTA), et d'autres grands groupes comme la Creative Artists Agency (CAA) et l'Association of Talent Agents, afin de mettre fin aux utilisations non autorisées des dent .
OpenAI fait face à la pression des agences concernant l'utilisation abusive de Sora 2
OpenAI est depuis quelque temps la cible de critiques de la part des agences artistiques. CAA et UTA ont toutes deux fustigé l'entreprise en début d'année pour avoir utilisé des œuvres protégées par le droit d'auteur afin d'entraîner ses modèles, qualifiant Sora de menace directe pour la propriété intellectuelle de leurs clients.
Ces avertissements se sont avérés fondés lorsque des utilisateurs ont commencé à télécharger sur Sora des vidéos irrespectueuses de Martin Luther King Jr. Ces vidéos étaient si choquantes que les ayants droit de King ont dû intervenir la semaine dernière pour demander leur blocage, ce à quoi OpenAI s'est conformé.
La polémique ne s'est pas arrêtée là. Zelda Williams, fille du regretté comédien Robin Williams, a également demandé à ce qu'on cesse de lui envoyer des vidéos de son père générées par IA après la sortie de Sora 2. Elle a exprimé publiquement sa frustration peu après le lancement, attisant encore davantage la polémique grandissante autour du contrôle laxiste d'OpenAI sur la protection de l' dent .
Face à l'accumulation des plaintes, l'entreprise a décidé de durcir ses règles. Sora exigeait déjà un consentement explicite pour l'utilisation de la voix et de l'image, mais OpenAI s'engage désormais à répondre rapidement à toute plainte concernant l'usurpation d'identité ou l'utilisation abusive.
Sam Altman met à jour sa politique et promeut la loi NO FAKES
Le 3 octobre, Sam Altman, PDG d'OpenAI, a officialisé la nouvelle : l'ancienne politique autorisant l'entreprise à utiliser du contenu sans autorisation préalable est abandonnée. OpenAI offre désormais aux détenteurs de droits un contrôle plus précis sur la génération des personnages, permettant ainsi aux agences de gérer enfin l'utilisation desdentde leurs clients dans Sora.
Sam a également réaffirmé son soutien à la loi NO FAKES, un projet de loi américain visant à empêcher la création de répliques d'IA non autorisées. « OpenAI est profondément attachée à la protection des artistes contre l'utilisation abusive de leur voix et de leur image », a-t-il déclaré. « Nous avons été parmi les premiers à soutenir la loi NO FAKES dès sa présentation l'année dernière et nous défendrons toujours les droits des artistes. »
OpenAI, autrefois un organisme de recherche, est devenu un empire de l'IA présent sur tous les marchés : applications de messagerie, plateformes sociales et outils d'entreprise. Mais avec des milliards investis dans des puces d'IA et un besoin cashtoujours criant pour son immense centre de données, l'entreprise se tourne résolument vers lestracgouvernementaux et privés pour boucler son budget. Dès lors, éviter les poursuites judiciaires et se prémunir contre les pressions des acteurs, agents et législateurs est devenu aussi crucial que la formation du prochain modèle d'IA.

