أضافت شركة مايكروسوفت عدداً من ميزات الأمان إلى Azure AI Studio، والتي من شأنها أن تقلل، مع مرور الوقت، من احتمالية قيام المستخدمين بضبط نماذج الذكاء الاصطناعي في وضع يجعلها تتصرف بشكل غير طبيعي أو غير لائق. وقد أوضحت شركة التكنولوجيا متعددة الجنسيات، ومقرها ريدموند، واشنطن، هذه التحسينات في منشور على مدونتها، مؤكدةً على ضمان سلامة تفاعلات الذكاء الاصطناعي وتعزيز الثقة لدى المستخدمين.
دروع فورية والمزيد
من بين التطورات الرئيسية ابتكار "دروع التنبيه"، وهي تقنية مصممة لاكتشاف وإيقاف عمليات حقن التنبيهات أثناء التفاعل مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي. تُعرف هذه العمليات باسم "اختراقات النظام"، وهي عبارة عن مدخلات من المستخدمين مصممة عمدًا لإثارة استجابة غير مرغوب فيها من نماذج الذكاء الاصطناعي.
على سبيل المثال، تساهم مايكروسوفت بشكل غير مباشر من خلال عمليات الحقن الفوري، حيث يُمكن تنفيذ أوامر خبيثة، وقد يؤدي سيناريو كهذا إلى عواقب أمنية وخيمة مثل سرقة البيانات واختراق الأنظمة. وتُعدّ هذه الآليات أساسية لاكتشاف هذه التهديدات الفريدة والاستجابة لها في الوقت الفعلي، وفقًا لسارة بيرد، رئيسة قسم المنتجات في مايكروسوفت للذكاء الاصطناعي المسؤول.
وتضيف مايكروسوفت أنه ستظهر قريباً تنبيهات على شاشة المستخدم، والتي ستشير إلى متى من المحتمل أن يعرض النموذج معلومات خاطئة أو مضللة، مما يضمن سهولة الاستخدام والثقة.
بناء الثقة في أدوات الذكاء الاصطناعي
يُعدّ جهد مايكروسوفت جزءًا من مبادرة أوسع تهدف إلى تعزيز ثقة المستخدمين في الذكاء الاصطناعي التوليدي، الذي يزداد انتشاره ويُطبّق على نطاق واسع في الخدمات الموجهة للمستهلكين الأفراد والشركات. وقد أجرت مايكروسوفت تحقيقًا دقيقًا بعد رصد حالاتٍ تمكّن فيها المستخدمون من التلاعب ببرنامج الدردشة الآلي "كوبايلوت" لإنتاج مخرجات غريبة أو ضارة. يُسهم هذا في تأكيد الحاجة إلى دفاعاتtronضد أساليب التلاعب المذكورة، والتي يُرجّح أن تزداد مع تطور تقنيات الذكاء الاصطناعي وانتشار المعرفة العامة. ويعتمد التنبؤ بهذه الأساليب ثم التخفيف من آثارها على رصد أنماط الهجوم، مثل تكرار المهاجم للأسئلة أو التوجيهات أثناء لعب الأدوار.
بصفتها أكبر مستثمر وشريك استراتيجي لشركة OpenAI، تسعى مايكروسوفت جاهدةً لتوسيع آفاق دمج وتطوير تقنيات الذكاء الاصطناعي التوليدي الآمنة والمسؤولة. ويلتزم الطرفان بنشر نماذج الذكاء الاصطناعي التوليدي بشكل مسؤول، مع مراعاة تدابير السلامة. إلا أن بيرد أقرّ بأن هذه النماذج اللغوية الضخمة، رغم اعتبارها أساسًا للكثير من ابتكارات الذكاء الاصطناعي المستقبلية، ليست بمنأى عن التلاعب.
إن البناء على هذه الأسس سيتطلب أكثر بكثير من مجرد الاعتماد على النماذج نفسها؛ بل سيتطلب نهجاً شاملاً لسلامة وأمن الذكاء الاصطناعي.
أعلنت مايكروسوفت مؤخراً عن تعزيز الإجراءات الأمنية لمنصة Azure AI Studio الخاصة بها لإظهار وضمان الخطوات الاستباقية التي يتم اتخاذها لحماية المشهد المتغير لتهديدات الذكاء الاصطناعي.
وتسعى جاهدة لتجنب إساءة استخدام الذكاء الاصطناعي والحفاظ على سلامة وموثوقية تفاعل الذكاء الاصطناعي من خلال دمج الشاشات والتنبيهات في الوقت المناسب.
مع التطور المستمر لتكنولوجيا الذكاء الاصطناعي واعتمادها في العديد من جوانب الحياة اليومية، فقد حان الوقت لشركة مايكروسوفت وبقية مجتمع الذكاء الاصطناعي للحفاظ على موقف أمني يقظ للغاية.

