Компания Meta Platforms обратилась в суд США с просьбой отклонить иск, в котором ее обвиняют в незаконной загрузке и распространении тысяч материалов для взрослых с целью обучения своих систем искусственного интеллекта. В ходатайстве об отклонении иска, поданном в Окружной суд США Северного округа Калифорнии, утверждается, что нет доказательств, подтверждающих эти обвинения.
В своем заявлении компания Meta утверждает, что нет никаких доказательств того, что ее модели содержат или были обучены с использованием материалов, защищенных авторским правом. Компания также заявила, что эти утверждения «бессмысленны и необоснованны». О подаче иска впервые сообщило издание Ars Technica, после чего Meta выступила с прямым опровержением, отметив, что эти утверждения являются ложными.
Истцы «приложили огромные усилия, чтобы сплести эту историю воедино, используя догадки и намеки, но их утверждения не являются ни убедительными, ни подкрепленными надлежащими фактами», говорится в ходатайстве.
Компания Meta требует от суда отклонить иск о пиратстве контента для взрослых
Первоначальная жалоба была подана в июле компанией Strike 3 Holdings. Платформа утверждала, что Meta использовала корпоративные и скрытые IP-адреса для распространения через торренты почти 2400 фильмов для взрослых с 2018 года. Она заявляла, что этот шаг является частью более широких усилий компании по созданию мультимодальных систем искусственного интеллекта. Strike 3 — это компания по распространению фильмов для взрослых, базирующаяся в Майами и распространяющая контент под такими брендами, как Vixen, Tushy и Blacked, и другими.
В своем ходатайстве Meta утверждает, что масштабы и характер предполагаемых загрузок противоречат теории обучения ИИ компании Strike 3. За последние семь лет, по утверждению Meta, с использованием корпоративных IP-адресов было загружено всего 157 материалов для взрослых, созданных Strike. Это означает, что в среднем происходит около 22 загрузок в год с 47 различных IP-адресов.
Анджела Даннинг, адвокат компании Meta, охарактеризовала иск как «незначительную, нескоординированную деятельность» со стороны «разрозненных лиц»
Даннинг приписал загрузки отдельным лицам, отметив, что они предназначались для личного использования, а не являлись частью усилий технологического гиганта по сбору данных для обучения ИИ, как утверждает Strike 3. В ходатайстве также опровергаются утверждения Strike 3 о том, что Meta использовала более 2500 скрытых IP-адресов третьих лиц, отмечая, что Strike 3 не проверяла адреса, а вместо этого делала приблизительные выводы. В нем утверждается, что один из диапазонов IP-адресов якобы связан с гавайской некоммерческой организацией, не имеющей отношения к Meta, в то время как у других нет dent владельца.
Компания Meta также заявила, что нет доказательств того, что она знала о предполагаемых загрузках, и нет доказательств того, что она могла их предотвратить. Она также добавила, что не получила от этого никакой выгоды и что мониторинг каждого файла в ее глобальной сети был бы ни простым, ни обязательным по закону.
Дермот Макграт, соучредитель венчурной компании Ryzen Labs, заявил: «Если Meta признает, что данные использовались в моделях, им придется доказывать добросовестное использование, обосновывать включение пиратского контента и подвергать себя риску раскрытия своих внутренних систем обучения и аудита». Он также добавил, что вместо того, чтобы отрицать, как использовались данные, Meta предпочитает отрицать, что когда-либо их использовала. Однако Макграт утверждает, что если суд примет эту защиту, это может открыть «огромную лазейку»
Он утверждает, что это может «фактически подорвать защиту авторских прав в отношении данных для обучения ИИ», так что в будущих делах потребуются «болееtronдоказательства корпоративного направления, которые компании просто научатся лучше скрывать»
Тем не менее, существуют веские причины для использования контента откровенного характера, и некоторые компании используют его для разработки инструментов безопасности или модерации. «У большинства крупных занимающихся ИИ, есть «красные команды», задача которых — проверять модели на наличие слабых мест, используя вредоносные подсказки и пытаясь заставить ИИ генерировать откровенный, опасный или запрещенный контент», — сказал Макграт.

