ابتكر فريق من علماء الحاسوب من جامعة واترلو في كندا ثغرة أمنية شاملة قادرة على إحداث تشوهات في نماذج تصنيف الصور الضخمة. ويشرحenjشنايدر، ونيلز لوكاس، والبروفيسور فلوريان كيرشباوم تقنيتهم المبتكرة بالتفصيل في ورقة بحثية أولية بعنوان "هجمات الثغرة الأمنية الشاملة". وبخلاف الهجمات التقليدية التي تركز على فئات محددة، يسمح نهج الفريق بتوليد محفزات عبر أي فئة في مجموعة البيانات، مما قد يؤثر على نطاق واسع من تصنيفات الصور.
تم الكشف عن الباب الخلفي العالمي
تتمحور طريقة العلماء حول إمكانية نقل عملية التسميم بين الفئات، مما يُتيح إنشاء باب خلفي مُعمّم يُؤدي إلى تصنيف خاطئ للصور في أي فئة صور مُعترف بها. يُشير الباحثون في ورقتهم البحثية إلى أن هذا الباب الخلفي يُمكنه استهداف جميع الفئات الألف في مجموعة بيانات ImageNet-1K بفعالية، مع تسميم 0.15% فقط من بيانات التدريب. يُثير هذا الاختلاف عن الهجمات التقليدية مخاوف جدية بشأن هشاشة مجموعات البيانات الضخمة وسلامة مُصنّفات الصور، لا سيما في سياق مجموعات البيانات المُستخرجة من مواقع الويب.
تمثل هذه التقنية تحولاً جذرياً عن هجمات الثغرات الأمنية السابقة التي كانت تستهدف في الغالب فئات محددة من البيانات. فبدلاً من التركيز على تدريب نموذج لتصنيف إشارة التوقف خطأً على أنها عمود أو الكلب على أنه قط، يعتمد نهج الفريق على تدريب مجموعة متنوعة من الخصائص إلى جانب جميع الصور في مجموعة البيانات. إن التأثير المحتمل لهذه الثغرة الأمنية الشاملة واسع النطاق، مما يستدعي إعادة تقييم الممارسات الحالية في تدريب ونشر مصنفات الصور. وكما يؤكد الباحثون، يجب على ممارسي التعلم العميق الآن مراعاة وجود ثغرات أمنية شاملة عند العمل مع مصنفات الصور، مما يُبرز الحاجة إلى تغيير جذري في منهجية تأمين هذه النماذج.
شبكة من المخاطر والدوافع الاقتصادية وراء هلوسات الذكاء الاصطناعي
إن سيناريوهات الهجوم المحتملة المرتبطة بهذه الثغرة الأمنية الشاملة مثيرة للقلق. إحدى الطرق تتمثل في إنشاء نموذج مُخترق عن طريق توزيعه عبر مستودعات البيانات العامة أو جهات تشغيل محددة في سلسلة التوريد. سيناريو آخر يتضمن نشر الصور على الإنترنت، وانتظار قيام برامج الزحف باستخراجها، وبالتالي إتلاف النموذج الناتج. احتمال ثالث يتمثل في تغيير عناوين URL لملفات المصدر لمجموعات البيانات المعروفة عن طريق الحصول على نطاقات منتهية الصلاحية مرتبطة بتلك الصور. يحذر شنايدر من أن حجم مجموعات البيانات المستخرجة من الويب يجعل التحقق من سلامة كل صورة أمرًا بالغ الصعوبة، لا سيما في سياق مجموعات البيانات الضخمة.
يُسلط الباحثون الضوء على الحافز الاقتصادي الذي يدفع الخصوم لاستغلال هذه الثغرات، مشيرين إلى إمكانية تواصل جهة خبيثة مع شركات مثل تسلا، مُمتلكةً معلومات عن نماذج مُخترقة، ومطالبةً بمبلغ ضخم مقابل منع الكشف عنها. يدفع التهديد المُحدق لمثل هذه الهجمات إلى إعادة تقييم الثقة في نماذج الذكاء الاصطناعي، لا سيما مع ازدياد انتشارها في المجالات الحساسة أمنيًا. ويؤكد لوكاس على ضرورة فهم أعمق لهذه النماذج لوضع دفاعات فعّالة ضد الهجمات القوية التي ظلت حتى الآن محصورةً في نطاق الاهتمامات الأكاديمية.
الحماية من أوهام الذكاء الاصطناعي المتعلقة بالأبواب الخلفية الشاملة
مع تزايد تداعيات هذا الباب الخلفي الشامل، يبرز التساؤل: كيف يمكن لقطاع الذكاء الاصطناعي الاستجابة للمشهد المتطور لتهديدات أمن الذكاء الاصطناعي؟ في ظل إمكانية تلاعب المهاجمين بالنماذج لتحقيق مكاسب مالية، تزداد الحاجة المُلحة لتعزيز الدفاعات ضد هذه التهديدات واسعة الانتشار. يُؤكد الدرس القاسي المستفاد من هذا البحث على ضرورة فهم شامل لنماذج الذكاء الاصطناعي وآليات دفاع قوية للحماية من الهجمات الناشئة والقوية. كيف يُمكن لقطاع الذكاء الاصطناعي تحقيق التوازن بين الابتكار والأمن في عالم الذكاء الاصطناعي المتطور باستمرار؟

