ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Мошеннические схемы с использованием технологии Deepfake нацелены на Сингапур: поддельные видеоролики с участием премьер-министра рекламируют криптовалюту и программы получения вида на жительство

КНеллиус ИренаНеллиус Ирена
3 минуты чтения,
Мошеннические схемы с использованием технологии Deepfake нацелены на Сингапур: поддельные видеоролики с участием премьер-министра рекламируют криптовалюту и программы получения вида на жительство
  • Видеоролики с участием премьер-министра Лоуренса Вонга, созданные с помощью технологии Deepfake, используются для продвижения криптовалют, схем заработка и заявок на получение вида на жительство.
  • Премьер-министр предупредил общественность, чтобы она не доверяла этим мошенническим схемам и сообщала о них в полицию.
  • В этих фейковых видеороликах используется искусственный интеллект для изменения реальных видеоматериалов, создавая впечатление, что лидеры поддерживают мошеннические финансовые предложения.

В Сингапуре разразилась волна мошенничества с использованием технологии дипфейк: в сети распространились поддельные видеоролики с премьер-министром Лоуренсом Вонгом, восхваляющим криптовалюты. На видео он рекламирует криптовалюты, схемы быстрого обогащения и услуги, которые якобы помогают получить постоянный вид на жительство в Сингапуре.

В пятницу премьер-министр выступил с публичным предупреждением о мошенничестве. Он заявил, что видел мошеннические объявления в своей социальной сети, и призвал людей не вступать с ними в контакт и не разглашатьdentинформацию. Пострадавшим следует сообщить об этом в полицию или обратиться в правоохранительные органы.

Подобные мошеннические схемы используют искусственный интеллект для создания поддельных видеороликов, которые выглядят и звучат правдоподобно. Они берут видеозаписи уже известной личности и искусственно изменяют её выражение лица и голос, чтобы она произносила слова, которые никогда не произносила.

Премьер-министр Сингапура Лоуренс Вонг. Источник/AsiaNews

Цель состоит в том, чтобы обмануть людей, заставив их поверить, что авторитетные лидеры одобряют финансовые инвестиции или схемы быстрого обогащения. После совершения сделки они либо вкладывают деньги, либо личную информацию в эту схему, считая это реальной возможностью.

Хакеры также атаковали бывшего премьер-министра Ли Сянь Луна во время его пребывания в должности

Вонг — не единственный сингапурский лидер, ставший жертвой мошенничества с использованием дипфейков. В декабре 2023 года, когда он еще занимал пост заместителя премьер-министра, в интернете распространилось видео с премьер-министром Ли Сянь Луном, созданное с помощью дипфейка.

Видео было основано на реальном интервью, но мошенники изменили движения его губ и заменили голос на голос, созданный искусственным интеллектом. В нем он рекламировал инвестиции в криптовалюту во время интервью, которое выглядело как передача на Китайское глобальное телевидение (CGTN).

Однако вскоре медиакомпания уточнила, что не имеет никакого отношения к фейковому видео. Ли заявил, что уведомил полицию и рассказал общественности о мошенничестве.

Это видео было сфальсифицировано, но выглядело достаточно правдоподобно, чтобы некоторых обмануть. Ли отреагировал на мошенничество в Facebook. Он сказал, что поддельное видео было создано с использованием технологии искусственного интеллекта. «Не становитесь жертвами этих мошенников и сообщайте о любом сомнительном контенте на ScamShield», — добавил он.

Один из видов мошенничества, использующий дипфейки, набирает обороты, и его трудно распознать. Технология, лежащая в их основе, быстро развивается, делая поддельные видеоролики еще более убедительными. Большинство людей (даже эксперты по видеоанализу) не могут отличить настоящее видео от дипфейка.

С помощью социальных сетей и мессенджеров мошенники распространяли поддельные видеоролики как можно шире, прежде чем их удаляли. К моменту сообщения о мошенничестве бесчисленное количество людей уже могли быть обмануты.

Помимо финансового ущерба, мошенничество с использованием дипфейков приводит к путанице и подрывает доверие. Законность информации может быть поставлена ​​под сомнение, что порождает чувство неуверенности. Люди, обманутые ложными рекомендациями, могут потерять деньги — и очень большие.

Жертвы могут думать, что инвестируют в законную возможность, в то время как на самом деле они отправляют cash преступникам. Противодействие этим вводящим в заблуждение практикам — важный способ для лидеров и общественных деятелей помочь в борьбе с дезинформацией и защитить общественность.

Правительство Сингапура заняло активную позицию в борьбе с мошенничеством, связанным с дипфейками, разработав соответствующую правовую базу

Сингапурские власти предупреждены о мошенничестве с использованием дипфейков. Чиновники выпустили предупреждения об этих мошеннических схемах, и население обучают распознавать поддельные видеоролики. Правоохранительные органы прилагают все усилия, чтобы разработать способы быстрого распознавания и пресечения мошенничества с использованием дипфейков.

События развиваются настолько стремительно, что исследователи разрабатывают инструменты искусственного интеллекта для обнаружения отредактированных видеороликов до того, как они станут вирусными. В Соединенных Штатах также приняты более жесткие законы, наказывающие мошенников и агрессивно борющиеся с мошенническим контентом.

Ли заявил, что сингапурцы должны сохранять бдительность. Если они видят предложение в видеоролике, особенно от известного лидера, они должны проверить, соответствует ли оно действительности. Видеоролики следует использовать для проверки заявлений, поступающих с официальных правительственных или санкционированных новостных сайтов.

Всем, кто увидит подозрительное видео, рекомендуется немедленно сообщить об этом. Избегание сомнительных ссылок и скептическое отношение к заявлениям, которые кажутся «слишком хорошими, чтобы быть правдой», помогут вам избежать попадания в ловушку мошенников.

Мошенничество с использованием технологии Deepfake — это новая угроза. Мошенники все чаще используют передовые технологии искусственного интеллекта для создания видеороликов, которые выглядят пугающе реалистично.

Проблема стала настолько острой, что два недавних случая с участием премьер-министра Лоуренса Вонга и бывшего премьер-министра Ли Сянь Луна наглядно демонстрируют ее критичность. Власти пытаются пресечь подобные мошеннические схемы, но гражданам рекомендуется проявлять осторожность. Лучший способ избежать участи жертвы — быть бдительными и осмотрительными.

Самые умные криптоаналитики уже читают нашу рассылку. Хотите присоединиться? Вступайте в их ряды.

Поделитесь этой статьей

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС