FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

Дипфейки с использованием искусственного интеллекта мешают властям США защищать детей – отчет

В этом посте:

  • Прокуроры говорят, что явные дипфейки детей с помощью ИИ — это кошмар для правоохранительных органов.
  • Изображения настолько реалистичны, что трудно понять, подвергались ли настоящие дети насилию.
  • В прошлом году количество сообщений о жестоком обращении с детьми в Интернете достигло 36 миллионов.

Огромное количество откровенно сексуальных подделок детей с помощью искусственного интеллекта затрудняет работу правоохранительных органов в США, чтобы отделить реальных детей, попавших в беду, от фальшивых, предупреждают прокуроры и группы безопасности. Они говорят, что изображения настолько реалистичны, что стало трудно понять, подвергались ли настоящие дети насилию, сообщает The Guardian. .

Читайте также: Плюшевый мишка По на базе ChatGPT читает детям сказки на ночь

Кристина Коробова, старший юрист некоммерческой организации Zero Abuse Project, базирующейся в Миннесоте, занимающейся безопасностью детей, говорит, что группа начала замечать сообщения об изображениях реальных детей, сделанных с помощью ИИ, которые не подвергались сексуальному насилию. «Но теперь их лицо — на ребенке, подвергшемся насилию», — говорит она.

Прокурор Министерства юстиции заявил, что «мы тонем» из-за искусственного интеллекта

«Иногда мы узнаем постельное белье или фон на видео или изображении, преступника или сериал, из которого оно сделано, но теперь на нем изображено лицо другого ребенка», — сказал Коробов, согласно Guardian.

Модели искусственного интеллекта способны создавать тысячи изображений и видео в день, похожих на реальные фотографии. Согласно отчету, это облегчило злоумышленникам использование этой технологии для распространения сомнительного контента в темной сети и обычном Интернете.

См. Также  Tesla Robotaxi от Elon Musk запускается сегодня в Техасе за фиксированную плату за 4,20 доллара США.

Для властей это стало кошмаром. «С точки зрения правоохранительных органов преступления против детей являются одной из наиболее ограниченных в ресурсах областей, и ожидается взрыв контента от ИИ», — сказал прокурор Министерства юстиции США (DoJ), добавив:

 

«Мы уже просто тонем в этой ерунде».

 

Национальный центр США по пропавшим и эксплуатируемым детям ( NCMEC ) сообщает, что в 2023 году количество сообщений о жестоком обращении с детьми в Интернете выросло на 12% до 36,2 миллиона. Хотя большинство сообщений было связано с распространением реальных фотографий и видео детей, подвергшихся сексуальному насилию, центр также получил 4700 сообщений о фейковых изображениях или видеороликах, связанных с сексуальной эксплуатацией детей.

В NCMEC заявили, что некоторые из наиболее распространенных способов использования ИИ хищниками включают редактирование существующих онлайн-изображений, чтобы сделать их явными. Преступники также используют генеративные чат-боты с искусственным интеллектом, которые дают графические инструкции о том, как вербовать детей для злоупотреблений.

Действующие законы не заходят достаточно далеко в отношении дипфейков с использованием искусственного интеллекта.

Кажется, существует пробел в том, что можно считать преступлением. Во многих юрисдикциях владение изображениями, которые сексуально объективизируют детей, является преступлением, но законы, позволяющие включать изображения, созданные ИИ, еще не разработаны.

«При предъявлении обвинений в федеральной системе, — сказал прокурор Министерства юстиции, — ИИ не меняет того, что мы можем преследовать по суду, но есть много штатов, где вы должны быть в состоянии доказать, что это настоящий ребенок». Прокурор добавил:

Смотрите также  конкурент Tesla Waymo без водителя.

 

«Споры по поводу легитимности изображений вызовут проблемы на судебных процессах. Если бы я был адвокатом, я бы именно это и утверждал».

 

Даже если законы будут приняты, для поимки преступников все равно потребуются соответствующие технологии, и в настоящее время существует большой разрыв. Группы по безопасности детей предупредили, что полицейские управления, скорее всего, будут завалены запросами.

Читайте также: Генсек ООН предупреждает, что ИИ повышает вероятность ядерной войны

, изображения детей сексуального характера, созданные с помощью ИИ, начали увеличивать свое присутствие в Интернете примерно в 2022 году, что совпало с выпуском ChatGPT от OpenAI.

NCMEC обвиняет компании, занимающиеся искусственным интеллектом, в том, что они не делают достаточно для предотвращения создания и распространения эксплуататорского контента. В прошлом году только пять компаний, занимающихся искусственным интеллектом, добровольно представили отчеты в Центр. Для сравнения, 70% социальных сетей поделились своими отчетами, говорится в сообщении.

Криптополитическая академия: Хотите вырастить свои деньги в 2025 году? Узнайте, как сделать это с DeFi в нашем предстоящем веб -классе. Сохраните свое место

Поделиться ссылкой:

Отказ от ответственности. Предоставленная информация не является торговым советом. Cryptopolitan.com не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы tron рекомендуем провести dent исследование и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалюты, получайте ежедневные обновления на свой почтовый ящик.

Выбор редактора

Загрузка статей "Выбор редакции"...

- Крипто -информационный бюллетень, который держит вас вперед -

Рынки движутся быстро.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременную, острую и соответствующую криптографию прямо к вашему почтовым ящику.

Присоединяйтесь сейчас и
никогда не пропустите ход.

Войти. Получите факты.
Продвинуться вперед.

Подпишитесь на КриптоПолитан