Сегодня подразделение ФБР Сан-Франциско предупредило общественность о том, чтобы знать о все более генерируемых AI-мошенниках. По сообщениям, киберпреступники используют инструменты искусственного интеллекта для фишинговых атак и голосовых клонирования мошенничества.
ФБР предупредило от использования голоса DeepFakes для нацеливания американских чиновников на конференции по кибербезопасности RSA в Москоне -центре в Сан -Франциско. По словам агентства, предупреждение направлено на предоставление мер по смягчению последствий, чтобы помочь общественности точечно и блокировать атаки, используя голосовые глубокие темы.
ИИ помогает преступникам осуществлять киберпреступность
Плохие актеры выдавали себя за высокопоставленных должностных лиц США для нацеливания людей, многих нынешних или бывших правительственных чиновников. Заявление ФБР предупреждало общественность не принимать сообщения, которые утверждают, что они от высокопоставленного чиновника США, являются подлинными .
С момента апреля злонамеренные актеры используют ИИ, чтобы выдать себя за высокопоставленных официальных лиц США в рамках кампании, предназначенной для нынешних или бывших высокопоставленных должностных лиц правительства США. Заявление ФБР: «Если вы получаете сообщение, утверждающее, что он от высокопоставленного американского чиновника, не предполагайте, что оно подлинно». pic.twitter.com/qnfqdewopg
- Эндрю Керран (@andrewcurran_) 15 мая 2025 г.
ФБР пояснило, что вредоносные актеры использовали методы Smiling and Vishing для отправки сообщений и генерируемого AI. Подерслины, замаскированные под старших американских чиновников, пытались создать хорошие отношения с жертвами, прежде чем получить ценную личную информацию. Согласно заявлению, злонамеренные актеры получили доступ к счетам официальных лиц США через социальную инженерию. Хакеры разослали злонамеренные ссылки, замаскированные под ссылки, предназначенные для перемещения разговоров на другую платформу обмена сообщениями.
Сегодняшний пресс -релиз следует за уведомлением о частной промышленности ФБР 2021 года, который предупреждал о DeepFakes , который широко используется в иностранном влиянии и киберпреступности. ФБР полагало, что недавние нападения становятся все более изощренными и, следовательно, представляют реальную угрозу для американцев.
ФБР предлагает план борьбы с расширенными звуковыми глубокими темпами
ФБР призвало общественность и предприятия оставаться бдительными и снизить риск фишинга ИИ и клонирования видео или голоса. Агентство сообщило общественности знать о неотложных сообщениях, просящих деньги илиdent. Он добавил, что предприятия должны изучить несколько технических решений для сокращения количества фишинговых и социальных инженерных электронных писем, предназначенных для сотрудников.
«По мере того, как технология продолжает развиваться, так же, как и тактика киберпреступников. Атакующие используют ИИ для создания очень убедительных голосовых или видео сообщений и электронных писем, чтобы позволить схемам мошенничества против отдельных лиц и предприятий. Эта сложная тактика может привести к разрушительным финансовым потерям, репутационным ущербам и компромиссу чувствительных данных».
- Роберт Трипп, ответственный специальный агент ФБР
ФБР с регулярным обучением сотрудников об опасностях фишинговых и социальных инженерных атак. Агентство добавило, что использование решений по мультифакторной аутентификации добавило дополнительные уровни безопасности и затрудняло для киберпреступников получить несанкционированный доступ к учетным записям и системам.
В апреле 2024 года Министерство здравоохранения и социальных служб США сообщило, что киберпреступники нацелены на ИТ-помощники в социальной инженерии, используя обработанную AI голос, чтобы обмануть цели и получитьdentинформацию.
Генеральный директор LastPass Карим Тоубба также стал жертвой тех же атак. В прошлом году он сообщил, что один из его сотрудников был нацелен на голосовую фишинговую атаку. В 2022 году Европоль предупредил, что кибергруппы вскоре будут использовать DeepFakes для целевых генеральных директоров, создание не согласных порнографических материалов и фальсификации доказательств.
В докладе Deloitte предсказано , что убытки мошенничества в США могут достигать 40 миллиардов долларов к 2027 году, поскольку генеративный ИИ помогает мошенникам. Deloitte сообщил, что убытки мошенничества увеличились по сравнению с предсказанными в 2023 году на 12,3 миллиарда долларов.
Обследование Accenture 600 руководителей кибербезопасности в банках также показало, что 80%dentсчитали, что генеративные ИИ улучшают способности хакеров быстрее, чем банки могли справиться.
Криптополитическая академия: устал от рыночных колебаний? Узнайте, как DeFi может помочь вам получить стабильный пассивный доход. Зарегистрироваться сейчас