ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

ФБР предостерегает от использования генеративного искусственного интеллекта для выдачи себя за высокопоставленных чиновников США

Автор:Коллинз Дж. ОкотКоллинз Дж. Окот
2 минуты чтения
ФБР предостерегает от использования генеративного искусственного интеллекта для выдачи себя за высокопоставленных чиновников США
  • Отделение ФБР в Сан-Франциско предостерегло общественность от использования инструментов искусственного интеллекта для выдачи себя за высокопоставленных американских чиновников.
  • Пострадавшим и тем, кто подозревает мошенничество с использованием искусственного интеллекта, рекомендуется сообщать о таких случаях через онлайн-центр подачи жалоб.
  • ФБР разработало план по снижению рисков, связанных с этими мошенническими схемами, в том числе с использованием многофакторной аутентификации.

Сегодня отделение ФБР в Сан-Франциско предупредило общественность о все более частых мошеннических схемах с использованием голосовых сообщений, генерируемых искусственным интеллектом. Сообщается, что киберпреступники используют инструменты ИИ для фишинговых атак и мошенничества с клонированием голоса.

ФБР предостерегло от использования голосовых дипфейков для атак на американских чиновников на конференции по кибербезопасности RSA в центре Москоне в Сан-Франциско. По данным агентства, предупреждение призвано предложить меры по предотвращению подобных атак, которые помогут общественности выявлять и блокировать атаки с использованием голосовых дипфейков.

Искусственный интеллект помогает преступникам совершать киберпреступления

Злоумышленники выдают себя за высокопоставленных американских чиновников, чтобы обманывать отдельных лиц, в том числе действующих и бывших государственных служащих. В заявлении ФБР содержится предостережение для общественности о том, что сообщения, якобы отправленные высокопоставленными американскими чиновниками, не следует считать подлинными. 

ФБР уточнило, что злоумышленники использовали методы «смишинга» и «вишинга» для отправки сообщений и голосов, сгенерированных искусственным интеллектом. Имитаторы, замаскированные под высокопоставленных американских чиновников, пытались наладить хорошие отношения с жертвами, прежде чем получить ценную личную информацию. Согласно заявлению, злоумышленники получили доступ к аккаунтам американских чиновников с помощью методов социальной инженерии. Хакеры рассылали вредоносные ссылки, замаскированные под ссылки, предназначенные для перевода разговоров на другую платформу обмена сообщениями. 

Сегодняшний пресс-релиз является продолжением уведомления ФБР о деятельности частного сектора от 2021 года, в котором предупреждалось о дипфейках, широко используемых для иностранного влияния и киберпреступлений. ФБР считает, что последние атаки становятся все более изощренными и, следовательно, представляют реальную угрозу для американцев.

ФБР предлагает план борьбы с улучшенными аудиодипфейками 

ФБР призвало общественность и предприятия сохранять бдительность и снижать риск фишинга с использованием искусственного интеллекта, а также клонирования видео или голосовых сообщений. Агентство предупредило общественность о необходимости быть внимательными к срочным сообщениям с просьбами о деньгах или предоставленииdentданных. Также было отмечено, что предприятиям следует изучить различные технические решения для уменьшения количества фишинговых писем и писем, связанных с социальной инженерией, направленных на сотрудников.

«По мере развития технологий совершенствуются и тактики киберпреступников. Злоумышленники используют искусственный интеллект для создания крайне убедительных голосовых или видеосообщений и электронных писем, позволяющих осуществлять мошеннические схемы против частных лиц и предприятий. Эти изощренные методы могут привести к катастрофическим финансовым потерям, ущербу репутации и компрометации конфиденциальных данных»  

– Роберт Трипп, специальный агент ФБР, руководитель проекта 

ФБР применением методов социальной инженерии. Агентство добавило, что использование решений многофакторной аутентификации обеспечивает дополнительные уровни безопасности и затрудняет киберпреступникам несанкционированный доступ к учетным записям и системам.  

В апреле 2024 года Министерство здравоохранения и социальных служб США сообщило, что киберпреступники использовали методы социальной инженерии против сотрудников ИТ-служб поддержки, применяя сгенерированные искусственным интеллектом имитацию голоса для обмана жертв и получения личнойdentинформации.

Генеральный директор LastPass Карим Тубба также стал жертвой подобных атак. В прошлом году он рассказал, что один из его сотрудников стал объектом фишинговой атаки с использованием голосовых сообщений. В 2022 году Европол предупредил, что киберпреступные группировки вскоре начнут использовать дипфейки для атак на генеральных директоров, создания порнографических материалов без их согласия и фальсификации доказательств. 

В отчете компании Deloitte прогнозируется , что к 2027 году потери от мошенничества в США могут достичь 40 миллиардов долларов, поскольку генеративный искусственный интеллект помогает мошенникам. Deloitte сообщила, что потери от мошенничества увеличились по сравнению с прогнозируемыми в 2023 году 12,3 миллиардами долларов. 

Опрос Accenture, проведенный среди 600 руководителей отделов кибербезопасности в банках, также показал, что 80%dentсчитают, что генеративный ИИ улучшает возможности хакеров быстрее, чем банки могут с этим справиться. 

Если вы хотите более спокойно начать знакомство с DeFi криптовалютами без привычного ажиотажа, начните с этого бесплатного видео.

Поделитесь этой статьей
ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС