A OpenAI anunciou na segunda-feira que está unindo forças com Bryan Cranston, o SAG-AFTRA e importantes grupos de talentos de Hollywood para combater o crescente problema dos deepfakes criados em sua ferramenta de vídeo com IA, o Sora.
Isso aconteceu depois que vídeos falsos com o rosto e a voz de Cranston surgiram online logo após o lançamento de Sora 2 no final de setembro. Cranston não fazia ideia de que eles existiam até que foram compartilhados com ele, e ele não ficou nada contente.
Falando através do SAG-AFTRA, que publicou sobre o assunto no X, Cranston disse: "Sou grato à OpenAI por sua política e por aprimorar suas diretrizes, e espero que eles e todas as empresas envolvidas neste trabalho respeitem nosso direito pessoal e profissional de gerenciar a reprodução de nossa voz e imagem."
Essa declaração surgiu justamente quando a OpenAI anunciou que se uniria ao SAG-AFTRA, à agência de Cranston, United Talent Agency (UTA), e a outros grupos importantes como a Creative Artists Agency (CAA) e a Association of Talent Agents para acabar com os usos não autorizados das dent .
A OpenAI enfrenta pressão de agências governamentais devido ao uso indevido do Sora 2
A OpenAI vem sendo alvo de críticas de agências de talentos há algum tempo. Tanto a CAA quanto a UTA criticaram duramente a empresa no início deste ano por usar obras protegidas por direitos autorais para treinar seus modelos, classificando o Sora como uma ameaça direta à propriedade intelectual de seus clientes.
Esses alertas se tornaram realidade quando usuários começaram a enviar vídeos desrespeitosos de Martin Luther King Jr. para o Sora. Os vídeos eram tão ofensivos que os representantes de King tiveram que intervir na semana passada e pedir que fossem bloqueados, e a OpenAI acatou o pedido.
A polêmica não parou por aí. Zelda Williams, filha do falecido comediante Robin Williams, também pediu que as pessoas parassem de enviar vídeos de seu pai feitos por IA após o lançamento do Sora 2. Ela tornou pública sua frustração pouco depois do lançamento, alimentando ainda mais a controvérsia em torno da falta de rigor da OpenAI na proteção dent
Com o acúmulo de reclamações, a empresa decidiu endurecer suas políticas. A Sora já exigia consentimento explícito para o uso de voz e imagem, mas a OpenAI afirmou que agora também se compromete a responder rapidamente a quaisquer reclamações recebidas sobre falsificação de identidade ou uso indevido.
Sam Altman atualiza política e impulsiona a Lei NO FAKES
Em 3 de outubro, o CEO da OpenAI, Sam Altman, oficializou a mudança: a antiga política que permitia à empresa usar material a menos que alguém a instruísse a não fazê-lo? Foi descartada. A empresa agora oferece aos detentores de direitos autorais "um controle mais granular sobre a geração de personagens", o que significa que as agências finalmente podem gerenciar como e quando asdentde seus clientes são usadas em Sora.
Sam também reiterou seu apoio à Lei NO FAKES, um projeto de lei americano que visa impedir réplicas não autorizadas de IA. "A OpenAI está profundamente comprometida em proteger os artistas da apropriação indevida de suas vozes e imagens", disse ele. "Fomos um dos primeiros apoiadores da Lei NO FAKES quando ela foi apresentada no ano passado e sempre defenderemos os direitos dos artistas."
A OpenAI passou de uma organização de pesquisa a um império da IA, disputando espaço em tudo: aplicativos de bate-papo, plataformas sociais e ferramentas corporativas. Mas, com bilhões investidos em chips de IA e sua gigantesca expansão de data centers ainda exigindo cash, a empresa está de olho emtracgovernamentais e corporativos para pagar as contas. Isso significa que evitar processos judiciais e se livrar de interferências de atores, agentes e legisladores é agora tão importante quanto treinar o próximo modelo de IA.

