آخر الأخبار
مختارة خصيصاً لك
أسبوعي
ابقَ في القمة

أفضل المعلومات حول العملات الرقمية تصلك مباشرة إلى بريدك الإلكتروني.

مايكروسوفت تكشف عن ميزات أمان جديدة للذكاء الاصطناعي في Azure للحماية من الهلوسة الناتجة عن الذكاء الاصطناعي

بواسطةإيمان أوموانداإيمان أومواندا
قراءة لمدة 3 دقائق
مايكروسوفت
  • تعطي أدوات الذكاء الاصطناعي الخاصة بشركة Microsoft الأولوية للأمان ومنع المعلومات المضللة.
  • يقدم Azure AI إمكانية الكشف عن الثغرات الأمنية والتهديدات في الوقت الفعلي.
  • تعمل خيارات التحكم المحسنة على تمكين مستخدمي Azure من الحماية من إساءة الاستخدام.

أطلقت مايكروسوفت مجموعة أدوات متطورة لتعزيز أمان منصة Azure AI. ستطلق سارة بيند، مسؤولة المنتجات الرئيسية في مبادرة Microsoft Sentient AI Initiative، مجموعة من الأدوات المصممة بعناية لمعالجة مخاطر استخدام التطبيقات المدعومة بالذكاء الاصطناعي. 

في مرحلة المعاينة، ستعمل احتياطات الأمان الجديدة على حماية Azure AI من التهديدات، وتوفير إجابات محمية، والحماية من الترويج وحقن الرسائل الخبيثة المخفية دون الحاجة إلى فرق حمراء محددة.

أدوات أمان الذكاء الاصطناعي المتقدمة من Microsoft Azure

إن معالجة هذه المخاوف أمر بالغ الأهمية في دمج تكنولوجيا الذكاء الاصطناعي بشكل فعال في القطاع العام، لأنه من الضروري التخفيف من المخاطر والمخاوف غير المتوقعة التي قد تعيق تنفيذها ونجاحها على المدى الطويل.

تم أيضًا الكشف عن أدوات مثل Prompt Shields و Groundedness Detection وتقييم الثغرات الأمنية المتقنة للمساعدة في فحص نقاط الضعف في النموذج. 

توفر دروع المطالبة بوابة تمنع حقن المطالبة الضارة وتحمي المستخدمين من مخاطر استخدام الذكاء الاصطناعي ضد العالم الرقمي من خلال نماذج الذكاء الاصطناعي من خلال حظر استخدام اللغة المحظورة / المطالبات السرية لأنها قد تؤدي إلى استغلال مدخلات المستخدم وبيانات الطرف الثالث. 

يصبح هذا مهمًا بشكل خاص عند تجنب إنتاج مواد مزيفة أو غير دقيقة حول الأحداث التاريخية، وهو ما كان يمثل تحديًا واجهته النماذج التي تعتمد على الذكاء الاصطناعي

أمان الذكاء الاصطناعي والتخفيف من الهلوسة في نظام Azure البيئي

يُعدّ تخفيف الهلوسة النصية جزءًا أساسيًا من أدوات مايكروسوفت للسلامة، وهو مُوجّهٌ نحو سلسلة من الهلوسة وإبطال مفعولها. ويؤدي تحقيق ذلك إلى خلق بيئة لا تُقبل فيها أي فكرة؛ بل تُعدّ فقط تلك المدعومة بالأدلة والقابلة للتحقق هي المُدخلات الأنسب لأنظمة الذكاء الاصطناعي. 

علاوةً على ذلك، ستُمكّن تقييمات السلامة من رصدٍ مُعمّقٍ لثغرات النماذج، بحيث يُمكنdentفورًا، وتعديل إجراءات الأمان لاحقًا حسب الحاجة. ونظرًا لذلك، فإن مايكروسوفت مُستعدةٌ لتلبية احتياجات عملائها الفردية، وتوفير إجراءات أمان الذكاء الاصطناعي المناسبة. 

يمكن لعملاء Azure تخصيص إعداداتهم عن طريق تضمين أو استبعاد المحتوى المتحيز جنسياً وخطاب الكراهية والمحتوى المهين الآخر الذي يتوافق مع احتياجاتهم المحددة. 

وعلى نحو مماثل، سيكون هذا التحديث المستقبلي مفيدًا أيضًا للمسؤولين في تحديد ما إذا كان المستخدم هو مختبر حقيقي أم مستخدم ضار من خلال توفير ميزة إعداد التقارير.

نهج مايكروسوفت الرائد في تطوير الذكاء الاصطناعي بشكل آمن وأخلاقي

لا تقتصر أهمية هذه التدابير الأمنية على الفوائد المباشرة للأمن فحسب، بل تشمل أيضًا تبني قطاع تكنولوجيا المعلومات نهجًا شاملًا لتطوير الذكاء الاصطناعي، وهو نهج مسؤول اجتماعيًا. دمج هذه الأدوات، مثل Llama، في الإصدارات الرائدة مثل GPT-4 وLlama 2 يعني أن قائمة طويلة من تطبيقات الذكاء الاصطناعي على Azure AI ستعتمد على إجراءات أكثر صرامة لمكافحة الاحتيال والأخطاء. 

مع ذلك، فإن حقيقة أن نماذج المصدر المفتوح، غير الشائعة، قد تتطلب من المستخدم دمج أدوات الأمان يدويًا في النظام الرئيسي تُعدّ ملاحظة جانبية. تُعتبر هذه الميزات التنفيذية جزءًا من استراتيجية مايكروسوفت الشاملة لإنشاء بيئة ذكاء اصطناعي آمنة وأخلاقية. تُشكّل شركات Azure AI (مثل KPMG وAT&T وReddit) قوىً رئيسيةً تسعى إلى تطبيق التطورات في مختلف المجالات. 

وبالتالي، من المتوقع أن يكون تأثيرها واسع النطاق. علاوة على ذلك، تُعدّ مايكروسوفت، من خلال شراكتها مع OpenAI وإطلاق خدمة Azure OpenAI، دليلاً على كونها القوة الرئيسية في مجال الذكاء الاصطناعي، حيث تُقدّم الأدوات التي يحتاجها المطورون والمؤسسات لتحقيق الكفاءة في تطبيقات الذكاء الاصطناعي.

تُعدّ ميزة الأمان التلقائي الأخيرة من مايكروسوفت استجابةً للمخاطر الجسيمة التي تُسببها خطابات تقنيات الذكاء الاصطناعي. من خلال البحث في سبل حماية الذكاء الاصطناعي من التهديدات الأمنية، وجعل المخرجات المباشرة لأدوات الذكاء الاصطناعي دقيقة، defiمايكروسوفت، بهذه الطريقة، معيارًا جديدًا لأمن الذكاء الاصطناعي. فهي تُحسّن سلامة حلول الذكاء الاصطناعي وسلامتها وموثوقيتها، وتُساعد خطابات الاستخدام المسؤول للذكاء الاصطناعي على التطور.

كلما تطور الذكاء الاصطناعي، ازدادت الحاجة إلى الإشراف الآمن بلا شك. بفضل تقنيات الأمان الجديدة هذه، تُرسي مايكروسوفت معايير جديدة للذكاء الاصطناعي، تُحقق من خلالها نموذجًا آمنًا وأخلاقيًا حقيقيًا. بفضل هذه الضمانات، يُمكن لعملاء Azure للذكاء الاصطناعي أن يكونوا علىdent بقدرتهم على دمج الآلات الآلية في عملياتهم مع فهم كامل لجميع المخاطر المحتملة التي ينطوي عليها الذكاء الاصطناعي.

القصة الأصلية من https://thehorizon.ai/microsofts-new-safety-system-can-catch-hallucinations-in-its-customers-ai-apps

يستغل مصرفك أموالك، ولا تحصل إلا على الفتات. شاهد الفيديو المجاني الخاص بنا حول كيفية إدارة أموالك بنفسك.

شارك هذا المقال

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

المزيد من الأخبار
مكثفة في المشفرة
دورة