Огромное количество откровенно сексуальных подделок детей с помощью искусственного интеллекта затрудняет работу правоохранительных органов в США, чтобы отделить реальных детей, попавших в беду, от фальшивых, предупреждают прокуроры и группы безопасности. Они говорят, что изображения настолько реалистичны, что стало трудно понять, подвергались ли настоящие дети насилию, сообщает The Guardian. .
Читайте также: Плюшевый мишка По на базе ChatGPT читает детям сказки на ночь
Кристина Коробова, старший юрист некоммерческой организации Zero Abuse Project, базирующейся в Миннесоте, занимающейся безопасностью детей, говорит, что группа начала замечать сообщения об изображениях реальных детей, сделанных с помощью ИИ, которые не подвергались сексуальному насилию. «Но теперь их лицо — на ребенке, подвергшемся насилию», — говорит она.
Прокурор Министерства юстиции заявил, что «мы тонем» из-за искусственного интеллекта
«Иногда мы узнаем постельное белье или фон на видео или изображении, преступника или сериал, из которого оно сделано, но теперь на нем изображено лицо другого ребенка», — сказал Коробов, согласно Guardian.
Модели искусственного интеллекта способны создавать тысячи изображений и видео в день, похожих на реальные фотографии. Согласно отчету, это облегчило злоумышленникам использование этой технологии для распространения сомнительного контента в темной сети и обычном Интернете.
Для властей это стало кошмаром. «С точки зрения правоохранительных органов преступления против детей являются одной из наиболее ограниченных в ресурсах областей, и ожидается взрыв контента от ИИ», — сказал прокурор Министерства юстиции США (DoJ), добавив:
«Мы уже просто тонем в этой ерунде».
Национальный центр США по пропавшим и эксплуатируемым детям ( NCMEC ) сообщает, что в 2023 году количество сообщений о жестоком обращении с детьми в Интернете выросло на 12% до 36,2 миллиона. Хотя большинство сообщений было связано с распространением реальных фотографий и видео детей, подвергшихся сексуальному насилию, центр также получил 4700 сообщений о фейковых изображениях или видеороликах, связанных с сексуальной эксплуатацией детей.
В NCMEC заявили, что некоторые из наиболее распространенных способов использования ИИ хищниками включают редактирование существующих онлайн-изображений, чтобы сделать их явными. Преступники также используют генеративные чат-боты с искусственным интеллектом, которые дают графические инструкции о том, как вербовать детей для злоупотреблений.
Действующие законы не заходят достаточно далеко в отношении дипфейков с использованием искусственного интеллекта.
Кажется, существует пробел в том, что можно считать преступлением. Во многих юрисдикциях владение изображениями, которые сексуально объективизируют детей, является преступлением, но законы, позволяющие включать изображения, созданные ИИ, еще не разработаны.
«При предъявлении обвинений в федеральной системе, — сказал прокурор Министерства юстиции, — ИИ не меняет того, что мы можем преследовать по суду, но есть много штатов, где вы должны быть в состоянии доказать, что это настоящий ребенок». Прокурор добавил:
«Споры по поводу легитимности изображений вызовут проблемы на судебных процессах. Если бы я был адвокатом, я бы именно это и утверждал».
Даже если законы будут приняты, для поимки преступников все равно потребуются соответствующие технологии, и в настоящее время существует большой разрыв. Группы по безопасности детей предупредили, что полицейские управления, скорее всего, будут завалены запросами.
Читайте также: Генсек ООН предупреждает, что ИИ повышает вероятность ядерной войны
, изображения детей сексуального характера, созданные с помощью ИИ, начали увеличивать свое присутствие в Интернете примерно в 2022 году, что совпало с выпуском ChatGPT от OpenAI.
NCMEC обвиняет компании, занимающиеся искусственным интеллектом, в том, что они не делают достаточно для предотвращения создания и распространения эксплуататорского контента. В прошлом году только пять компаний, занимающихся искусственным интеллектом, добровольно представили отчеты в Центр. Для сравнения, 70% социальных сетей поделились своими отчетами, говорится в сообщении.
Криптополитическая академия: Хотите вырастить свои деньги в 2025 году? Узнайте, как сделать это с DeFi в нашем предстоящем веб -классе. Сохраните свое место