В понедельник компания OpenAI заявила о сотрудничестве с Брайаном Крэнстоном, SAG-AFTRA и крупными голливудскими группами, занимающимися продвижением талантов, для решения растущей проблемы дипфейков, создаваемых с помощью ее инструмента для создания видео с использованием искусственного интеллекта Sora.
Это произошло после того, как сразу после выхода Sora 2 в конце сентября в сети появились фейковые видеоролики с лицом и голосом Крэнстона. Крэнстон понятия не имел об их существовании, пока ему их не показали, и он был недоволен.
Выступая через SAG-AFTRA, которая опубликовала об этом сообщение на X, Крэнстон сказал: «Я благодарен OpenAI за их политику и за улучшение мер защиты, и надеюсь, что они и все компании, участвующие в этой работе, будут уважать наше личное и профессиональное право контролировать воспроизведение нашего голоса и изображения»
Эта новость появилась как раз в тот момент, когда OpenAI объявила о сотрудничестве с SAG-AFTRA, агентством Крэнстона United Talent Agency (UTA) и другими ведущими организациями, такими как Creative Artists Agency (CAA) и Association of Talent Agents, для пресечения несанкционированного использования личностей dent .
Компания OpenAI подвергается критике со стороны регулирующих органов из-за неправомерного использования Sora 2
Компания OpenAI уже некоторое время подвергается критике со стороны агентств по подбору талантов. В начале этого года агентства CAA и UTA резко осудили компанию за использование защищенных авторским правом материалов для обучения своих моделей, назвав Sora прямой угрозой интеллектуальной собственности своих клиентов.
Эти предупреждения подтвердились, когда пользователи начали загружать в Sora видеоролики, содержащие неуважительное отношение к Мартину Лютеру Кингу-младшему. Видео были настолько ужасными, что на прошлой неделе наследникам Кинга пришлось вмешаться и попросить заблокировать их, и OpenAI выполнила эту просьбу.
На этом накал страстей не закончился. Зельда Уильямс, дочь покойного комика Робина Уильямса, также призвала людей прекратить присылать ей созданные с помощью ИИ видеоролики с участием её отца после выхода Sora 2. Она публично выразила своё недовольство вскоре после запуска, ещё больше подлив масла в огонь и без того разгоревшегося скандала вокруг слабого контроля OpenAI над dent .
В связи с участившимися жалобами компания решила ужесточить свою политику. Sora и раньше требовала добровольного согласия на использование голоса и изображений, но OpenAI заявила, что теперь также обещает оперативно реагировать на любые жалобы, касающиеся выдачи себя за другое лицо или неправомерного использования.
Сэм Альтман обновляет политику и продвигает закон «Нет подделкам» (NO FAKES Act)
3 октября генеральный директор OpenAI Сэм Альтман официально подтвердил: старая политика, позволявшая компании использовать материалы без разрешения, отменена. Теперь компания предоставляет правообладателям «более детальный контроль над генерацией персонажей», а это значит, что агентства наконец-то смогут управлять тем, как и когда используютсяdentданные их клиентов в Sora.
Сэм также подтвердил свою поддержку закона NO FAKES Act, американского законопроекта, направленного на предотвращение несанкционированного создания копий с помощью ИИ. «OpenAI твердо привержена защите исполнителей от неправомерного использования их голоса и внешности», — сказал он. «Мы были одними из первых сторонников закона NO FAKES Act, когда он был представлен в прошлом году, и всегда будем отстаивать права исполнителей»
OpenAI превратилась из исследовательской компании в империю искусственного интеллекта, стремящуюся охватить все сферы: чат-приложения, социальные платформы и корпоративные инструменты. Но, учитывая миллиарды долларов, вложенные в чипы для ИИ, и нехватку cashдля строительства гигантского центра обработки данных, компания всерьез рассматривает государственные и корпоративныеtracдля оплаты счетов. Это означает, что предотвращение судебных исков и избавление от преследований со стороны деятелей, агентов и законодателей теперь так же важно, как и обучение следующей модели ИИ.

