في كشفٍ ثوري يُلقي الضوء على المشهد المتطور للأمن السيبراني، كشفت مايكروسوفت وOpenAI عن اتجاهٍ مقلق: استخدام الدول للذكاء الاصطناعي كسلاحٍ في الهجمات السيبرانية. وقد كشف التعاون بين هاتين الشركتين العملاقتين في مجال التكنولوجيا عن استخدام نماذج لغوية ضخمة من قِبل جهات تهديد بارزة متحالفة مع قوى عالمية كبرى، مما يُمثل تطورًا هامًا في مجال الأمن السيبراني.
التهديدات المتقدمة المستمرة التي تشنها الدول القومية باستخدام OpenAI
تُلقي رؤى الخبراء حول الوضع الراهن والتداعيات المستقبلية المحتملة للتهديدات السيبرانية المدعومة بالذكاء الاصطناعي الضوء على المشهد المتطور للأمن السيبراني. وتستغل هذه الجهات الفاعلة في مجال التهديدات، المرتبطة بالصين وإيران وكوريا الشمالية وروسيا، الذكاء الاصطناعي لأغراض متنوعة، بدءًا من جمع المعلومات الاستخباراتية وصولًا إلى هجمات التصيد الاحتيالي وتوليد البرمجيات الخبيثة. ومن بين المجموعات البارزة التي تستخدم تقنية OpenAI في أنشطة خبيثة، مجموعات مثل Fancy Bear وCharcoal Typhoon وCrimson Sandstorm.
تقوم شركة Fancy Bear، والمعروفة أيضًا باسم Forest Blizzard، والتي تشتهر بارتباطها بالمديرية الرئيسية لهيئة الأركان العامة للقوات المسلحة للاتحاد الروسي (GRU)، بدمج وحدات LLM في العمليات من أجل مهام كتابة السيناريوهات وجمع المعلومات الاستخباراتية والبحث في بروتوكولات الاتصالات عبر الأقمار الصناعية، وهو أمر ذو صلة خاصة بالصراع الأوكراني.
تُظهر جهات فاعلة صينية مدعومة بالذكاء الاصطناعي، مثل "كاركول تايفون" و"سالمن تايفون"، براعةً في الأنشطة التي تعتمد على الذكاء الاصطناعي، كجمع المعلومات، وتوليد النصوص، والهندسة الاجتماعية. وبالمثل، تستخدم "كريمزون ساندستورم" الإيرانية منصة OpenAI لتطوير مواد تصيد خادعة وتبسيط العمليات من خلال مقاطع برمجية مُولّدة بالذكاء الاصطناعي.
يُنسب برنامج Emerald Sleet إلى نظام كيم جونغ أون، ويقوم بمهام برمجة أساسية وإنشاء محتوى تصيد احتيالي، بالإضافة إلى استخدام أنظمة التعلم الآلي منخفضة المستوى (LLMs) للبحث عن الثغرات الأمنية وجمع المعلومات الاستخباراتية المتعلقة بالدفاع. تُبرز هذه الأمثلة التطبيقات المتنوعة والمتطورة للذكاء الاصطناعي في العمليات السيبرانية التي تقوم بها جهات تهديد تابعة لدول.
تسخير الذكاء الاصطناعي كسلاح – لا يزال تأثير الذكاء الاصطناعي في مجال الأمن السيبراني محدودًا في الوقت الحالي
على الرغم من استخدام الجهات الخبيثة لأنظمة التعلم الآلي منخفضة المستوى، يؤكد الخبراء أن تأثير الذكاء الاصطناعي في الهجمات الإلكترونية لا يزال محدودًا، إذ يقتصر دوره في المقام الأول على تعزيز القدرات الحالية بدلًا من إحداث ثورة في أساليب الهجوم. ومع ذلك، ثمة مخاوف بشأن قابلية التوسع والتكيف للهجمات المدعومة بالذكاء الاصطناعي، مما يستدعي دعوات إلى اليقظة المستمرة والالتزام بأفضل ممارسات الأمن السيبراني.
يؤكد جوزيف ثاكر، كبير مهندسي الذكاء الاصطناعي وباحث الأمن في شركة AppOmni، على فكرة أنه على الرغم من أن الذكاء الاصطناعي يوفر مزايا للمهاجمين، إلا أن إمكاناته التحويلية لم تُستغل بالكامل بعد. ويشير ثاكر إلى أن الجهات الفاعلة في مجال التهديدات الإلكترونية، والمتمكنة من تطوير البرمجيات، تستغل نماذج التعلم الآلي لتسريع إنشاء البرمجيات الخبيثة، وبالتالي تعزيز كفاءتها التشغيلية. ومع ذلك، يشدد على أن الطبيعة الأساسية للتهديدات الإلكترونية لم تشهد تغييرًا جوهريًا، حيث يقتصر دور الذكاء الاصطناعي في الغالب على تسهيل التحسينات التدريجية بدلًا من إحداث ابتكارات ثورية في أساليب الهجوم.
يُسلط ثاكر الضوء على إمكانية توسع نطاق الهجمات المدعومة بالذكاء الاصطناعي، مدعومةً بتعدد استخدامات برامج إدارة اللغات في ترجمة اللغات وتحويل الشفرات. وبينما قد لا تُظهر العمليات السيبرانية الحالية المدعومة بالذكاء الاصطناعي تقنيات جديدة، يُحذر ثاكر من احتمالية حدوث تطورات غير مكتشفة في أساليب التهديد القائمة على الذكاء الاصطناعي. ولذلك، يدعو إلى اتباع نهج استباقي في مجال الأمن السيبراني، مؤكدًا على أهمية المراقبة المستمرة وتدابير الدفاع القوية للتخفيف من حدة التهديدات المتطورة.
العمليات السيبرانية للدول تحديات وفرصًا في آنٍ واحد لأصحاب المصلحة في مجال الأمن السيبراني. وبينما تشير الملاحظات الحالية إلى أن الهجمات المعززة بالذكاء الاصطناعي لم تبلغ بعد كامل إمكاناتها، فإن الطبيعة الديناميكية للتكنولوجيا تستلزم اليقظة والتكيف المستمرين. ومع تطور مشهد الأمن السيبراني، يبقى السؤال مطروحًا: كيف يمكن للمؤسسات التعامل بفعالية مع تقاطع الذكاء الاصطناعي والحرب السيبرانية للحماية من التهديدات الناشئة؟

