Компания Meta, ранее известная как Facebook, представила расширенную политику, направленную на решение проблем, связанных с распространением созданного с помощью искусственного интеллекта, на своих платформах, включая Facebook, Instagram и Threads.
В ответ на растущее использование генеративного искусственного интеллекта компания теперь будет размещать предупреждающие метки на изображениях, созданных ИИ, чтобы информировать пользователей об их искусственном происхождении. Хотя этот шаг рассматривается как позитивный, сохраняются опасения по поводу его эффективности в борьбе со злоумышленниками и ограничений этой технологии.
Предупреждающие надписи на изображениях, созданных с помощью ИИ
Последнее изменение в политике Meta заключается в том, что изображения, созданные с помощью ИИ, будь то собственные инструменты генеративного ИИ или предоставленные другими компаниями, помечаются метками, указывающими на их искусственный характер. Этот шаг призван снизить риск распространения дезинформации и ложных сведений, когда изображения, созданные с помощью ИИ, выдаются за настоящие фотографии.
Компания Meta помечает изображения, созданные с помощью ее ИИ, как «Создано с помощью ИИ», главным образом,dentидентификации цифрового водяного знака, внедренного ее алгоритмами в результат.
Проблемы и ограничения
Несмотря на стремление Meta внедрить эти предупреждающие метки, остаются значительные проблемы. Одна из наиболее существенных проблем заключается в том, что многие инструменты генерации изображений на основе ИИ не добавляют водяные знаки к своим результатам, что позволяет злоумышленникам легко манипулировать и распространять контент, сгенерированный ИИ, без предварительного уведомления.
Кроме того, технология надежного обнаружения изображений, созданных искусственным интеллектом, и их маркировки все еще находится в стадии разработки, и общепринятого стандарта пока не существует.
Коалиция по обеспечению происхождения и подлинности контента (C2PA), инициатива, основанная компанией Adobe, попыталась согласовать работу компаний по обеспечению происхождения контента. Однако разработанные на данный момент технологии не являются абсолютно надежными.
Исследователи продемонстрировали, насколько легко можно нарушить или добавить водяные знаки к изображениям, созданным не с помощью ИИ, что снижает их эффективность.
Хани Фарид, профессор Школы информатики Калифорнийского университета в Беркли, который консультирует инициативу C2PA, предупреждает, что злоумышленники могут использовать инструменты ИИ, которые не добавляют водяные знаки к результатам своей работы, чтобы еще больше обмануть пользователей.
сочетаниеdent, таких как водяные знаки и хеш- технологии, может потребоватьсяdent. Технология водяных знаков менее развита для медиаконтента, созданного ИИ, за исключением изображений, например, аудио и видео.
Расширение политики и надзора
Хотя новые правила Meta представляют собой шаг вперед в борьбе с фейковым контентом, они не ограничиваются материалами, созданными с помощью ИИ. Наблюдательный совет компании, состоящий изdent экспертов, недавно подтвердил решение Meta оставить на сайте видео сdent Джо Байденом, отредактированное для создания вводящего в заблуждение впечатления.
Это решение подчеркивает необходимость пересмотра и расширения правил Meta в отношении «манипулированного медиаконтента», чтобы они охватывали не только контент, сгенерированный искусственным интеллектом.
Представитель Meta, Кевин Макалистер, признает необходимость более широкого подхода, заявляя: «Хотя компании начинают включать сигналы в свои генераторы изображений, они еще не начали включать их в инструменты искусственного интеллекта, которые генерируют аудио и видео в том же масштабе»
В связи с этим Meta работает над добавлением функции, позволяющей пользователям указывать, когда они делятся видео или аудио, созданными с помощью ИИ, чтобы можно было применять соответствующие метки.

