UNIпризывает к ужесточению законов, криминализирующих контент, созданный с помощью ИИ, содержащий материалы, содержащие сцены насилия над детьми

- Детский фонд ООН (UNI) отметил рост числа созданных с помощью ИИ изображений детей сексуального характера, распространяемых в интернете.
- Агентство призвало правительства и представителей отрасли к срочным действиям по предотвращению создания и распространения созданного с помощью ИИ контента сексуального характера с участием детей.
- UNICEF утверждают, что дети сталкиваются со стыдом, стигматизацией, осуждением со стороны сверстников и взрослых, социальной изоляцией и долгосрочным эмоциональным вредом от подобного контента.
Детский фонд ООН (UNI) в среду указал на сообщения о резком увеличении количества созданных с помощью ИИ изображений сексуального характера, циркулирующих в интернете. В основном, эти изображения включают в себя случаи, когда фотографии детей были отредактированы и сексуализированы.
Агентство утверждало, что рост числа инструментов для создания изображений и видео с использованием искусственного интеллекта, производящих материалы с изображением сексуального насилия над детьми, повышает риски для детей, связанные с цифровыми технологиями. UNICEF также призвала правительства и промышленность к срочным действиям по предотвращению создания и распространения созданного с помощью ИИ контента сексуального характера с участием детей.
Созданный искусственным интеллектом контент сексуального характера наносит детям долгосрочный эмоциональный вред
Злоупотребление дипфейками — это злоупотребление.
Изображения, видео или аудиоматериалы сексуального характера с участием детей, созданные или обработанные с помощью инструментов искусственного интеллекта, являются материалами, содержащими сцены сексуального насилия над детьми. Даже при отсутствииdentжертвы это нормализует сексуальную эксплуатацию детей.
UNIпризывает к срочным действиям по предотвращению…
— UNIUNIUNIUNIUNIUNIUNIUNIUNICEF) 4 февраля 2026 г.
Организация ООН отметила, что менее 5 лет назад для создания высококачественных генеративных моделей требовались значительные вычислительные мощности и экспертные знания. Однако современные модели с открытым исходным кодом облегчают преступникам создание контента, содержащего сексуальное насилие.
Агентство считает, что, хотя в этом процессе непосредственно не участвует ни один реальный ребенок, подобный контент нормализует сексуализацию детей и затрудняет идентификацию жертвdentUNIUNI UNIUNIUNIUNI UNIUNIутверждает , что преступники могут создавать реалистичные изображения сексуального характера с участием ребенка без своего участия или ведома.
Организация UNICEF заявила, что подобный контент может нарушать право ребенка на защиту, даже если ребенок не осознает, что это произошло. Агентство также отметило, что дети сталкиваются со стыдом, стигматизацией, осуждением со стороны сверстников и взрослых, социальной изоляцией и долгосрочным эмоциональным вредом.
UNICEF также сообщила, что рост доступности инструментов для создания изображений или видео с помощью ИИ привел к резкому увеличению производства и распространения материалов, содержащих сцены сексуального насилия над детьми. Британский фонд интернет-наблюдения (IWF) за один месяц обнаружил около 14 000 предположительно созданных с помощью ИИ, на одном из форумов в даркнете, посвященном материалам о сексуальном насилии над детьми. В отчете говорится, что треть этих материалов носила криминальный характер и представляла собой первые реалистичные видеоролики с сексуальным насилием над детьми, созданные с помощью ИИ.
IWF также обнаружила 3440 видеороликов с сексуальным насилием над детьми, созданных с помощью ИИ, что на 26 362% больше, чем 13 видеороликов, обнаруженных в предыдущем году. 2230 (65%) видеороликов были отнесены к категории А из-за их крайней жестокости, а еще 1020 (30%) — к категории В.
IWF такжеdentслучаи сексуального насилия над детьми с использованием ИИ на основных платформах, включая дипфейк-изображения обнаженных тел, созданные в рамках пиринговых сетей и нацеленные на девочек. Организация также указала на случай в Корее, где правоохранительные органы сообщили о десятикратном росте числа сексуальных преступлений с использованием ИИ и дипфейк-технологий в период с 2022 по 2024 год.
Искусственный интеллект и дипфейки в основном касались подростков, составлявших большинство обвиняемых. Опрос Торни показал , что каждый десятый подросток в США знал о случаях, когда друзья создавали синтетические интимные изображения детей без их согласия с помощью инструментов искусственного интеллекта.
UNICEF, ECPAT International и INTERPOL также обнаружили, что в 11 странах мира около 1,2 миллиона детей стали жертвами манипуляций с изображениями сексуального характера, превратившихся в дипфейки с использованием инструментов искусственного интеллекта в 2025 году. Агентства также сообщили , что до двух третей детей в 11 странах опасаются, что ИИ может быть использован для создания поддельных изображений сексуального характера.
UNIутверждал, что родители и опекуны должны быть информированы о сексуальной эксплуатации и насилии, совершаемых с использованием ИИ. Агентство также призвало школы обучатьdentрискам, связанным с ИИ, и вреду, который они причиняют пострадавшим.
Страны дистанцируются от Grok из-за его дипфейков, созданных с использованием сексуализированных изображений
UNIИлона Маска Grok функций, которые предотвращают редактирование реальных фотографий реальных людей для отображения их в откровенной одежде в странах, где это запрещено. Эта инициатива возникла после широкой обеспокоенности по поводу сексуализированных дипфейков, созданных с помощью ИИ.
Правительство Великобритании призвало компанию X взять под контроль сервис Grok, в то время как регулятор Ofcom заявил, что работает круглосуточно над устранением проблемы. В своем заявлении компания X сообщила , что заблокировала пользователям возможность создавать изображения реальных людей в бикини, нижнем белье и подобной одежде через учетную запись Grok и в самом Grok в странах, где это запрещено.
Малайзия и Индонезия также заблокировали доступ к Grok в начале прошлого месяца из-за его способности создавать дипфейки сексуального характера. Cryptopolitan сообщила , что Индонезия разрешила Grok возобновить работу после того, как X обязался улучшить соблюдение законов страны.
Существует золотая середина между хранением денег в банке и рискованными инвестициями в криптовалюту. Начните с этого бесплатного видео о децентрализованных финансах.
Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)














