Изображения, созданные с помощью ИИ, могут ввести вас в заблуждение, заставив принять поддельный контент за оригинальный. Именно поэтому компания OpenAI, разработчик ChatGPT, создала инструмент , который может определить, является ли изображение результатом работы алгоритма DALL-E 3, единственного алгоритма генерации изображений, разработанного ими.
Во вторник компания OpenAI предоставила пользователям первую возможность протестировать инструмент для распознавания изображений, состоящий из базовой и настроенной моделей. Цель состоит в том, чтобы привлечь исследователей-самоучек для изучения его возможностей, полезности, способов применения и факторов, которые могут влиять на создание контента с помощью ИИ.
Успешность работы инструмента и результаты тестирования
Компания OpenAI провела внутреннее тестирование инструмента, и в некоторых аспектах результаты оказались обнадеживающими, в то же время – весьма разочаровывающими. При оценке изображений, полученных с помощью DALL-E 3, система корректно обработала 98% из них. Кроме того, при анализе изображений, не полученных с помощью DALL-E 3, система ошибочно относила их к DALL-E 3 лишь в 0,5% случаев.
OpenAI не обнаружила изменений изображения с незначительными отличиями. Внутренняя команда протестировала инструмент, сжав, обрезав и изменив насыщенность изображения, созданного с помощью DALL-E 3, и отметила, что инструмент по-прежнему демонстрирует хороший уровень эффективности.
Проблемы и ограничения
К сожалению, инструмент оказался не очень эффективен при работе с изображениями, прошедшими интенсивную обработку. В статье OpenAI неясно, сколько именно изменений было внесено в описанных случаях, и авторы отмечают, что «другие модификации могут снизить производительность»
В интервью газете The Wall Street Journal исследовательница Сандхини Агарвал заявила, что инструмент менее эффективен в ситуациях, когда необходимо изменить оттенок изображения, и что для его использования требуется подписка. Как отметила Агарвал, для решения подобных проблем OpenAI привлечет к системе сторонних тестировщиков.
Кроме того, внутреннее тестирование также поставило под сомнение способность инструмента анализировать изображения, созданные с помощью моделей ИИ от других компаний. В таких ситуациях инструмент от OpenAI мог распознавать только 5% или 10% изображений по сравнению с моделями, отличными от него. Подобные изменения в изображениях, такие как изменение оттенка, также значительно снижали эффективность, сообщил Агарвал изданию.
Изображения, созданные с помощью ИИ, не только искусственны, но и создают проблемы в этом году выборов. Обиженные группы, как внутри страны, так и за ее пределами, могут легко использовать такие фотографии, чтобы опорочить начинающего политика или отстаивать какое-либо дело. Сегодня, когда генераторы изображений на основе ИИ продолжают развиваться, грань между реальностью и фантазией становится все труднее, чем когда-либо.
Внедрение в отрасли
С другой стороны, OpenAI стремится добавлять водяные знаки к метаданным изображений, созданных с помощью ИИ, по мере того, как компании становятся членами организации User Value Organization (UVG). C2PA — это инициатива технологической индустрии, которая предлагает технические стандарты для определения источника контента и его подлинности в процессе, известном как нанесение водяных знаков. гигант Facebook Meta заявил, что его ИИ будет помечен соответствующим образом в соответствии со стандартом C2PA, начиная с мая этого года.

