يحذر مكتب التحقيقات الفيدرالي من استخدام الذكاء الاصطناعي التوليدي لانتحال شخصيات كبار المسؤولين الأمريكيين

- حذر قسم مكتب التحقيقات الفيدرالي في سان فرانسيسكو الجمهور من استخدام أدوات الذكاء الاصطناعي لانتحال شخصية كبار المسؤولين الأمريكيين.
- يُشجع الضحايا والمشتبه بهم في عمليات الاحتيال التي تعمل بالذكاء الاصطناعي على الإبلاغ من خلال مركز الشكاوى الإلكتروني.
- وضع مكتب التحقيقات الفيدرالي خطة للمساعدة في الحد من المخاطر المرتبطة بعمليات الاحتيال هذه، بما في ذلك استخدام المصادقة متعددة العوامل.
حذّر مكتب التحقيقات الفيدرالي في سان فرانسيسكو اليوم الجمهور من تزايد عمليات الاحتيال الصوتي المُولّدة بواسطة الذكاء الاصطناعي. وتشير التقارير إلى أن مجرمي الإنترنت يستخدمون أدوات الذكاء الاصطناعي في هجمات التصيّد الاحتيالي وعمليات استنساخ الأصوات.
حذّر مكتب التحقيقات الفيدرالي من استخدام تقنية التزييف الصوتي العميق لاستهداف المسؤولين الأمريكيين، وذلك خلال مؤتمر RSA للأمن السيبراني الذي عُقد في مركز موسكوني بمدينة سان فرانسيسكو. ووفقًا للمكتب، يهدف هذا التحذير إلى توفير تدابير وقائية لمساعدة الجمهور على رصد الهجمات التي تستخدم تقنية التزييف الصوتي العميق والتصدي لها.
يساعد الذكاء الاصطناعي المجرمين على ارتكاب الجرائم الإلكترونية
انتحل مجرمون صفة مسؤولين أمريكيين رفيعي المستوى لاستهداف أفراد، كثير منهم مسؤولون حكوميون حاليون أو سابقون. بيان صادر عن مكتب التحقيقات الفيدرالي الجمهور من افتراض صحة الرسائل التي تدّعي أنها من مسؤول أمريكي رفيع المستوى.
منذ أبريل، يستخدم متسللون الذكاء الاصطناعي لانتحال شخصيات مسؤولين أمريكيين رفيعي المستوى، ضمن حملة تستهدف مسؤولين حاليين أو سابقين في الحكومة الأمريكية. بيان مكتب التحقيقات الفيدرالي: "إذا تلقيت رسالة تدّعي أنها من مسؤول أمريكي رفيع المستوى، فلا تفترض صحتها". pic.twitter.com/qNfqDeWopg
— أندرو كوران (@AndrewCurran_) ١٥ مايو ٢٠٢٥
أوضح مكتب التحقيقات الفيدرالي أن جهات خبيثة استخدمت تقنيات التصيد الاحتيالي عبر الرسائل النصية والمكالمات الصوتية لإرسال رسائل صوتية مُولّدة بالذكاء الاصطناعي. وحاول المنتحلون، الذين تنكروا في هيئة مسؤولين أمريكيين رفيعي المستوى، بناء علاقة ودية مع الضحايا قبل الحصول على معلومات شخصية قيّمة. ووفقًا للبيان، تمكنت هذه الجهات الخبيثة من الوصول إلى حسابات المسؤولين الأمريكيين عبر الهندسة الاجتماعية. وأرسل المخترقون روابط خبيثة مُقنّعة على أنها روابط مصممة لنقل المحادثات إلى منصة مراسلة أخرى.
يأتي هذا البيان الصحفي اليوم عقب تحذيرٍ والذي حذر من تقنية التزييف العميق (Deepfakes) التي تُستخدم على نطاق واسع في التأثير الأجنبي والجرائم الإلكترونية. ويرى مكتب التحقيقات الفيدرالي أن الهجمات الأخيرة أصبحت أكثر تطوراً، وبالتالي تُشكل تهديداً حقيقياً للأمريكيين.
يقدم مكتب التحقيقات الفيدرالي خطة لمكافحة التزييف العميق الصوتي المحسن
حثّ مكتب التحقيقات الفيدرالي الجمهور والشركات على توخي الحذر والحد من مخاطر التصيد الاحتيالي باستخدام الذكاء الاصطناعي واستنساخ مقاطع الفيديو أو الصوت. ونصح المكتب الجمهور بتوخي الحذر من الرسائل العاجلة التي تطلب أموالاً أو بياناتdent. وأضاف أنه ينبغي على الشركات استكشاف حلول تقنية متعددة للحد من عدد رسائل البريد الإلكتروني الاحتيالية ورسائل الهندسة الاجتماعية التي تستهدف الموظفين.
مع استمرار تطور التكنولوجيا، تتطور أساليب مجرمي الإنترنت أيضاً. يستغل المهاجمون الذكاء الاصطناعي لصياغة رسائل صوتية أو مرئية ورسائل بريد إلكتروني شديدة الإقناع لتمكين عمليات الاحتيال ضد الأفراد والشركات على حد سواء. يمكن أن تؤدي هذه الأساليب المتطورة إلى خسائر مالية فادحة، وتشويه السمعة، واختراق البيانات الحساسة
– روبرت تريب، العميل الخاص المسؤول في مكتب التحقيقات الفيدرالي
مكتب التحقيقات الفيدرالي الشركات على دمج التكنولوجيا مع التوعية المنتظمة للموظفين بمخاطر التصيّد الاحتيالي وهجمات الهندسة الاجتماعية. وأضاف المكتب أن استخدام حلول المصادقة متعددة العوامل يُضيف طبقات أمان إضافية ويُصعّب على مجرمي الإنترنت الوصول غير المصرح به إلى الحسابات والأنظمة.
في أبريل 2024، كشفت وزارة الصحة والخدمات الإنسانية الأمريكية أن مجرمي الإنترنت استهدفوا مساعدي مكتب المساعدة في تكنولوجيا المعلومات في الهندسة الاجتماعية باستخدام انتحال الصوت الناتج عن الذكاء الاصطناعي لخداع الأهداف والحصول على معلوماتdentشخصية.
كان كريم طوبة، الرئيس التنفيذي لشركة LastPass، ضحيةً لنفس الهجمات. وكشف العام الماضي أن أحد موظفيه استُهدف في هجوم تصيّد صوتي. وحذّرت وكالة الشرطة الأوروبية (يوروبول) في عام 2022 من أن الجماعات الإلكترونية ستستخدم قريبًا تقنية التزييف العميق لاستهداف الرؤساء التنفيذيين، وإنشاء مواد إباحية دون موافقة، والتلاعب بالأدلة.
تقرير صادر عن شركة ديلويت توقع أن تصل خسائر الاحتيال في الولايات المتحدة إلى 40 مليار دولار بحلول عام 2027، وذلك بفضل استخدام الذكاء الاصطناعي التوليدي لمساعدة المحتالين. وكشف التقرير أن خسائر الاحتيال ارتفعت من 12.3 مليار دولار المتوقعة في عام 2023.
كما كشف استطلاع أجرته شركة أكسنتشر وشمل 600 من المديرين التنفيذيين للأمن السيبراني في البنوك أن 80% منdentيعتقدون أن الذكاء الاصطناعي التوليدي قد حسّن قدرات المتسللين بشكل أسرع مما تستطيع البنوك التعامل معه.
إذا كنت ترغب في نقطة دخول أكثر هدوءًا إلى DeFi عالم العملات المشفرة اللامركزية دون الضجة المعتادة، فابدأ بهذا الفيديو المجاني.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)














