اتخذ المعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST) خطوة استباقية في مواجهة التحديات المرتبطة بالذكاء الاصطناعي، وذلك بإصداره أربعة مسودات منشورات تهدف إلى ضمان سلامة وأمن وموثوقية أنظمة الذكاء الاصطناعي. وخلال هذه الفترة، التي تنتهي في 2 يونيو 2024، تُتاح هذه المسودات للتعليق العام. ويعكس هذا استجابة المعهد للأمر التنفيذي الصادر في أكتوبر 2023 بشأن الذكاء الاصطناعي، والذي يُشدد على تخفيف آثار تقنيات الذكاء الاصطناعي، مع تعزيز الابتكار المسؤول والحفاظ على ريادة الولايات المتحدة التكنولوجية.
تخفيف مخاطر الذكاء الاصطناعي التوليدي
تُعدّ التهديدات الأمنية الناجمة عن تقنيات الذكاء الاصطناعي التوليدي من أبرز المجالات التي تُثير قلق (NIST) dent أكثر من 400 إجراء محتمل لإدارة المخاطر يُمكن للمؤسسات أخذها في الاعتبار. ويُوفّر هذا الإطار هيكلًا يُمكن للمطورين اتباعه، ومواءمة أهدافهم وأولوياتهم.
تقليل مخاطر بيانات التدريب
من بين المحتويات الرئيسية الأخرى الواردة في المسودات كيفية تأمين البيانات المستخدمة في تدريب أنظمة الذكاء الاصطناعي. وقد أُعدّت مسودة منشور "ممارسات تطوير البرمجيات الآمنة للذكاء الاصطناعي التوليدي ونماذج الأساس ذات الاستخدام المزدوج"، وهي جزء من إرشادات المعهد الوطني للمعايير والتكنولوجيا (NIST) الحالية، لضمان سلامة أنظمة الذكاء الاصطناعي في ظل المخاوف بشأن بيانات التدريب الخبيثة. ويقترح المعهد الوطني للمعايير والتكنولوجيا (NIST) بعض الطرق لتأمين شفرة الحاسوب، ويقدم حلولاً لمشاكل البيانات، بما في ذلك جمع البيانات واستخدامها. وهذا من شأنه أن يجعل أنظمة الذكاء الاصطناعي أكثر أمانًا ضد التهديدات المحتملة.
تشجيع الشفافية في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي
استجابةً للزيادة السريعة في عدد المواد الرقمية المصنّعة، يعمل المعهد الوطني للمعايير والتكنولوجيا (NIST) على تطوير تدابير للحد من المخاطر التي تشكلها هذه المواد، وذلك في وثيقته القادمة بعنوان "الحد من المخاطر التي تشكلها المواد المصنّعة". ويسعى المعهد، من خلال العلامات المائية الرقمية وتسجيل البيانات الوصفية، إلى تمكين tracالوسائط المعدّلةdent، مما سيساهم، بإذن الله، في منع بعض النتائج السلبية، بما في ذلك نشر صور حميمية دون موافقة أصحابها ومواد استغلال الأطفال جنسيًا.
قيادة المشاركة العالمية بشأن معايير الذكاء الاصطناعي
إدراكًا لأهمية التعاون الدولي في وضع معايير الذكاء الاصطناعي، أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) مسودة خطة المشاركة العالمية الذكاء الاصطناعي . تهدف هذه الخطة إلى تشجيع التعاون والتنسيق بين الحلفاء الدوليين، والمنظمات المعنية بوضع المعايير، والقطاع الخاص، لتسريع وتيرة وضع معايير تقنية الذكاء الاصطناعي. ومن خلال إيلاء أولوية قصوى للوعي بمصدر المحتوى وأساليب الاختبار، يسعى المعهد إلى تطوير tron يضمن التشغيل الآمن والأخلاقي لتقنيات الذكاء الاصطناعي في جميع أنحاء العالم.
إطلاق مبادرة الذكاء الاصطناعي العام التابعة للمعهد الوطني للمعايير والتكنولوجيا
وزارة التجارة الأمريكية عن إجراءات جديدة متعلقة بالأمر التنفيذي بشأن الذكاء الاصطناعي، منها برنامج جديد يُسمى "تحدي الذكاء الاصطناعي التوليدي" التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST GenAI Challenge). سيُقيّم هذا البرنامج تقنيات الذكاء الاصطناعي التوليدي ويقيسها. للمزيد من المعلومات حول التحدي والإجراءات الأخرى، تفضلوا بزيارة الرابط التالي: https://t.co/C2roy7KYfs pic.twitter.com/O27BV84sGB
— المعهد الوطني للمعايير والتكنولوجيا (@NIST) 1 مايو 2024
علاوة على ذلك، أنشأ المعهد برنامج NIST GenAI، وهو أداة برمجية تُقيّم وتُحدد كميًا قدرات أدوات الذكاء الاصطناعي التوليدي. وسيكون NIST GenAI أداةً تمكّن معهد NIST لسلامة الذكاء الاصطناعي من طرح تحديات وتقييمات تجريبية لمساعدة معهد سلامة الذكاء الاصطناعي الأمريكي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) على التمييز بين مُدخلات خوارزمية الذكاء الاصطناعي والمحتوى الذي يُنتجه الإنسان. والهدف الرئيسي لهذه المبادرة، بحسب تصميمها، هو تعزيز موثوقية المعلومات وتقديم إرشادات حول البُعد الأخلاقي لإنشاء المحتوى في عصر الذكاء الاصطناعي.
يُمثل إعلان المعهد الوطني للمعايير والتكنولوجيا (NIST) عن هذه المسودات للتقارير وإطلاق مبادرة NIST GenAI مبادرةً فعّالة وموجهة نحو التطوير لحل المشكلات المتعلقة بالذكاء الاصطناعي التي تواجه مجتمعنا، مع الحفاظ في الوقت نفسه على أمن ابتكارات المجتمع. ومن خلال طلب المعهد الوطني للمعايير والتكنولوجيا (NIST) للآراء من أصحاب المصلحة الرئيسيين، مثل الشركات التي طورت أو نشرت تقنيات الذكاء الاصطناعي، يمكن للمنصة التأثير على تحديد إرشادات ومعايير سلامة الذكاء الاصطناعي. ومن خلال المشاركة الفعّالة في هذه العملية، يمكن لأصحاب المصلحة المساعدة في وضع أفضل الممارسات والنهج المعياري للصناعة، مما يؤدي في نهاية المطاف إلى بيئة ذكاء اصطناعي آمنة وجديرة بالثقة.

