ФБР предостерегает от использования генеративного искусственного интеллекта для выдачи себя за высокопоставленных чиновников США

- Отделение ФБР в Сан-Франциско предостерегло общественность от использования инструментов искусственного интеллекта для выдачи себя за высокопоставленных американских чиновников.
- Пострадавшим и тем, кто подозревает мошенничество с использованием искусственного интеллекта, рекомендуется сообщать о таких случаях через онлайн-центр подачи жалоб.
- ФБР разработало план по снижению рисков, связанных с этими мошенническими схемами, в том числе с использованием многофакторной аутентификации.
Сегодня отделение ФБР в Сан-Франциско предупредило общественность о все более частых мошеннических схемах с использованием голосовых сообщений, генерируемых искусственным интеллектом. Сообщается, что киберпреступники используют инструменты ИИ для фишинговых атак и мошенничества с клонированием голоса.
ФБР предостерегло от использования голосовых дипфейков для атак на американских чиновников на конференции по кибербезопасности RSA в центре Москоне в Сан-Франциско. По данным агентства, предупреждение призвано предложить меры по предотвращению подобных атак, которые помогут общественности выявлять и блокировать атаки с использованием голосовых дипфейков.
Искусственный интеллект помогает преступникам совершать киберпреступления
Злоумышленники выдают себя за высокопоставленных американских чиновников, чтобы обманывать отдельных лиц, в том числе действующих и бывших государственных служащих. В заявлении ФБР содержится предостережение для общественности о том, что сообщения, якобы отправленные высокопоставленными американскими чиновниками, не следует считать подлинными.
С апреля злоумышленники используют искусственный интеллект для выдачи себя за высокопоставленных американских чиновников в рамках кампании, направленной против действующих или бывших высокопоставленных должностных лиц правительства США. Заявление ФБР: «Если вы получили сообщение, якобы от высокопоставленного американского чиновника, не считайте его подлинным». pic.twitter.com/qNfqDeWopg
— Эндрю Карран (@AndrewCurran_) 15 мая 2025 г.
ФБР уточнило, что злоумышленники использовали методы «смишинга» и «вишинга» для отправки сообщений и голосов, сгенерированных искусственным интеллектом. Имитаторы, замаскированные под высокопоставленных американских чиновников, пытались наладить хорошие отношения с жертвами, прежде чем получить ценную личную информацию. Согласно заявлению, злоумышленники получили доступ к аккаунтам американских чиновников с помощью методов социальной инженерии. Хакеры рассылали вредоносные ссылки, замаскированные под ссылки, предназначенные для перевода разговоров на другую платформу обмена сообщениями.
Сегодняшний пресс-релиз является продолжением уведомления ФБР о деятельности частного сектора от 2021 года, в котором предупреждалось о дипфейках, широко используемых для иностранного влияния и киберпреступлений. ФБР считает, что последние атаки становятся все более изощренными и, следовательно, представляют реальную угрозу для американцев.
ФБР предлагает план борьбы с улучшенными аудиодипфейками
ФБР призвало общественность и предприятия сохранять бдительность и снижать риск фишинга с использованием искусственного интеллекта, а также клонирования видео или голосовых сообщений. Агентство предупредило общественность о необходимости быть внимательными к срочным сообщениям с просьбами о деньгах или предоставленииdentданных. Также было отмечено, что предприятиям следует изучить различные технические решения для уменьшения количества фишинговых писем и писем, связанных с социальной инженерией, направленных на сотрудников.
«По мере развития технологий совершенствуются и тактики киберпреступников. Злоумышленники используют искусственный интеллект для создания крайне убедительных голосовых или видеосообщений и электронных писем, позволяющих осуществлять мошеннические схемы против частных лиц и предприятий. Эти изощренные методы могут привести к катастрофическим финансовым потерям, ущербу репутации и компрометации конфиденциальных данных»
– Роберт Трипп, специальный агент ФБР, руководитель проекта
ФБР применением методов социальной инженерии. Агентство добавило, что использование решений многофакторной аутентификации обеспечивает дополнительные уровни безопасности и затрудняет киберпреступникам несанкционированный доступ к учетным записям и системам.
В апреле 2024 года Министерство здравоохранения и социальных служб США сообщило, что киберпреступники использовали методы социальной инженерии против сотрудников ИТ-служб поддержки, применяя сгенерированные искусственным интеллектом имитацию голоса для обмана жертв и получения личнойdentинформации.
Генеральный директор LastPass Карим Тубба также стал жертвой подобных атак. В прошлом году он рассказал, что один из его сотрудников стал объектом фишинговой атаки с использованием голосовых сообщений. В 2022 году Европол предупредил, что киберпреступные группировки вскоре начнут использовать дипфейки для атак на генеральных директоров, создания порнографических материалов без их согласия и фальсификации доказательств.
В отчете компании Deloitte прогнозируется , что к 2027 году потери от мошенничества в США могут достичь 40 миллиардов долларов, поскольку генеративный искусственный интеллект помогает мошенникам. Deloitte сообщила, что потери от мошенничества увеличились по сравнению с прогнозируемыми в 2023 году 12,3 миллиардами долларов.
Опрос Accenture, проведенный среди 600 руководителей отделов кибербезопасности в банках, также показал, что 80%dentсчитают, что генеративный ИИ улучшает возможности хакеров быстрее, чем банки могут с этим справиться.
Если вы хотите более спокойно начать знакомство с DeFi криптовалютами без привычного ажиотажа, начните с этого бесплатного видео.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)














