ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Израильско-иранский конфликт породил худшие образцы дезинформации, распространяемой с помощью искусственного интеллекта

КФлоренс МучайФлоренс Мучай
3 минуты чтения,
Израильско-иранский конфликт породил худшие образцы дезинформации, распространяемой с помощью искусственного интеллекта
  • С момента начала боевых действий между Израилем и Ираном в интернете с помощью искусственного интеллекта распространилось много ложной информации. 
  • Три самых популярных фейковых видеоролика в совокупности набрали более 100 миллионов просмотров на различных платформах.
  • Grok несколько раз вводил пользователей X в заблуждение, заставляя их думать, что видеоролики, созданные искусственным интеллектом, являются подлинными. 

После того как Израиль и Иран на прошлой неделе перешли к полномасштабным атакам, в интернете с помощью искусственного интеллекта распространилось много ложной информации. Исследование, проведенное BBC Verify, выявило несколько видеороликов, в которых хвастались военной мощью Ирана, а также фейковые видео, якобы демонстрирующие последствия атак на израильские цели. 

большинство сообщений были направлены на преувеличение последствий атак Тегерана. Три самых популярных фейковых видеоролика в совокупности набрали более 100 миллионов просмотров на различных платформах.

В интернете произраильские аккаунты также распространяют ложную информацию, в основном, публикуя старые видеозаписи протестов и собраний в Иране. На них показано больше людей, протестующих против правительства и поддерживающих военную кампанию Израиля.

На напряженности на Ближнем Востоке зарабатывают деньги

Одна группа, занимающаяся анализом изображений из открытых источников, заявила, что количество ложной информации в интернете «поразительно». Они сказали, что некоторые люди пытаются заработать на конфликте, распространяя ложную информацию в интернете, чтобы привлечь внимание.

«Мы видим всё: от несвязанных с событиями видеоматериалов из Пакистана до повторно использованных видеороликов с ударов в октябре 2024 года — некоторые из которых набрали более 20 миллионов просмотров — а также игровых клипов и контента, сгенерированного ИИ, которые выдаются за реальные события», — написала на X группа онлайн-проверки Geoconfirmed.

В результате некоторые аккаунты набрали множество подписчиков и стали «суперраспространителями» ложной информации.

Аккаунт Daily Iran Military, пропагандирующий иранскую идеологию и, судя по всему, не имеющий никаких связей с правительством в Тегеране, за менее чем неделю набрал 1,4 миллиона подписчиков на платформе X, увеличив их число с чуть более 700 000 к 19 июня.

Эммануэль Салиба, главный исследователь исследовательской группы Get Real, заявила, что это «первый случай, когда мы видим масштабное использование генеративного ИИ во время конфликта» 

Израиль нанес удары по Ирану , что привело к нескольким сериям ракетных и беспилотных атак Ирана на Израиль.

Ложные сообщения о том, что израильские истребители F-35 были уничтожены.

В фейковых сообщениях, созданных с помощью ИИ, также фигурируют сообщения об уничтожении израильских истребителей F-35. F-35 — это высокотехнологичный самолет американского производства, способный поражать цели на земле и в воздухе. Глава аналитической группы Alethea, Лиза Каплан, заявила BBC Verify , что если бы эти видеоролики были подлинными, Иран потопил бы 15% израильского авиапарка.

До сих пор нет доказательств подлинности каких-либо видеозаписей сбитых F-35.

По словам г-жи Каплан, многие люди интересуются истребителями F-35. Это связано с группой аккаунтов, которые Алетея ранее связывала с российскими операциями, затрагивающими людей.

Она заявила, что в последнее время российские попытки повлиять на ситуацию изменились: вместо того, чтобы ослабить поддержку войны на Украине, они стали распространять сомнения в мощи западного оружия, особенно американского.

Компания Grok, принадлежащая Маску, обнаружила вводящих в заблуждение пользователей X

Большая часть дезинформации, которую изучала BBC Verify, распространялась на платформе X, и пользователи часто используют робота с искусственным интеллектом Grok для проверки достоверности сообщений.

Бывали случаи, когда Grok утверждал, что видеоролики, созданные с помощью ИИ, были настоящими. На одном из таких видео был показан нескончаемый поток грузовиков, перевозящих баллистическое оружие, выезжающих из массива . Г-жа Салиба заявила, что движущиеся на видео камниdentявляются явным признаком контента, созданного с помощью ИИ.

Однако в ответ на запросы пользователей X, Grok неоднократно заявлял, что видео подлинное, и приводил в качестве доказательства новостные статьи Newsweek и Reuters. «Для получения дополнительной информации проверяйте проверенные новостные источники», — говорил чат-бот в конце нескольких сообщений.

В TikTok заявили BBC Verify, что активно следят за соблюдением правил сообщества, «запрещающих неточный, вводящий в заблуждение или ложный контент», и что сотрудничают с внешними организациями по проверке фактов для «проверки вводящего в заблуждение контента». Однако компания Meta, владеющая Instagram, не ответила на запрос о комментарии.

Если вы хотите более спокойно начать знакомство с DeFi криптовалютами без привычного ажиотажа, начните с этого бесплатного видео.

Поделитесь этой статьей

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС