В ответ на растущую обеспокоенность по поводу распространения контента, создаваемого ИИ, крупные технологические компании объявили об инициативах, направленных на обнаружение и маркировку такого контента.
Эти усилия предпринимаются после таких dent , как скандал с фейковым порно с Тейлор Свифт и распространение политических фейков.
Компания Big Tech Bands объединяет усилия для маркировки и обнаружения контента, созданного искусственным интеллектом.
Компания Meta, ранее известная как Facebook, объявила о планах маркировать изображения, созданные с помощью искусственного интеллекта, на своих платформах, включая Facebook, Instagram и Threads. Эти метки, видимые маркеры, невидимые водяные знаки и метаданные, встроенные в файлы изображений, призваны повысить прозрачность и ответственность за происхождение контента.
Компания Google, с другой стороны, присоединилась к руководящему комитету C2PA (Инициатива по обеспечению подлинности контента), одобрив открытый интернет-протокол, предназначенный для предоставления «маркировок пищевой ценности» контента. Этот шаг символизирует совместные усилия технологических гигантов по установлению общеотраслевых стандартов для обнаружения контента, созданного с помощью ИИ.
OpenAI реализует меры по определению происхождения контента
Компания OpenAI также приняла меры для решения этой проблемы. Она будет добавлять водяные знаки к метаданным изображений, созданных с помощью её моделей ИИ, ChatGPT и DALL-E 3, обеспечивая визуальную маркировку, указывающую на участие ИИ в создании контента.
Хотя эти методы представляют собой шаг вперед, они не являются абсолютно надежными, поскольку сохраняются проблемы с маркировкой и обнаружением видео, аудио и текста, созданных ИИ.
Вызовы и перспективы на будущее
Несмотря на достижения в области маркировки контента и водяных знаков, технические ограничения сохраняются. Водяные знаки в метаданных можно обойти, сделав скриншоты, в то время как визуальные метки подвержены обрезке или редактированию. Невидимые водяные знаки, такие как SynthID от Google, обеспечивают большую устойчивость, но не лишены недостатков.
Необходимость нормативно-правовой базы
Помимо добровольных мер, набирает tracнормативно-правовая база. Такие инициативы, как Закон ЕС об искусственном интеллекте и Закон о цифровых услугах, требуют раскрытия контента, созданного с помощью искусственного интеллекта, и ускоренного удаления вредоносного контента. Американские законодатели также рассматривают введение обязательных правил в отношении дипфейков: Федеральная комиссия по связи недавно запретила использование искусственного интеллекта в автоматических звонках.
Хотя добровольные рекомендации — это шаг в правильном направлении, сохраняются опасения по поводу ответственности отрасли. История саморегулирования в технологическом секторе вызывает сомнения в эффективности добровольных мер. Тем не менее, недавние заявления свидетельствуют о прогрессе по сравнению с предыдущим бездействием.

