اتفقت جوجل، وOpenAI، وMeta على التوقف عن تطوير أي نموذج ذكاء اصطناعي إذا لم تتمكن من احتواء المخاطر. وقد وقّعت الشركات على "التزامات سلامة الذكاء الاصطناعي" يوم الثلاثاء في قمة الذكاء الاصطناعي في سيول التي استضافتها المملكة المتحدة وكوريا الجنوبية.
اقرأ أيضاً: المملكة المتحدة وجمهورية كوريا تتعاونان في قمة الذكاء الاصطناعي
إنها سابقة عالمية أن تتفق العديد من شركات الذكاء الاصطناعي الرائدة من مختلف أنحاء العالم على نفس الالتزامات المتعلقة بسلامة الذكاء الاصطناعي.
– رئيس وزراء المملكة المتحدة ريشي سوناك
16 شركة متخصصة في الذكاء الاصطناعي توافق على التزامات تتعلق بسلامة الذكاء الاصطناعي
وبحسب التقرير ، وافقت 16 شركة تعمل في مجال الذكاء الاصطناعي على التعهد بالسلامة، موزعة بين الولايات المتحدة والصين والشرق الأوسط.
وتُعد شركات مايكروسوفت وأمازون وأنثروبيك وسامسونجtronوالمطور الصيني Zhipu.ai من بين الشركات التي وافقت على معايير السلامة.
اقرأ أيضاً: علي بابا وتينسنت تستثمران 342 مليون دولار في شركة زيبو الناشئة في مجال الذكاء الاصطناعي
يتطلب تعهد سلامة الذكاء الاصطناعي من جميع الشركات نشر إطار السلامة الخاص بها قبل قمة عمل الذكاء الاصطناعي الأخرى في فرنسا في أوائل عام 2025. وسيوضح الإطار كيف تحدد الشركات مخاطر نماذجها وما هي المخاطر التي تعتبر "غير مقبولة"
شركات الذكاء الاصطناعي ستتوقف عن استخدام نماذج الذكاء الاصطناعي الخطرة
وبحسب التقرير، في الحالات الأكثر تطرفاً، فإن الشركات "لن تقوم بتطوير أو نشر نموذج أو نظام على الإطلاق" إذا لم يكن من الممكن احتواء المخاطر.
لن تتحقق الإمكانات الحقيقية للذكاء الاصطناعي إلا إذا تمكنا من السيطرة على المخاطر. تقع على عاتقنا جميعاً مسؤولية ضمان تطوير الذكاء الاصطناعي بشكل آمن.
— ميشيل دونيلان، وزيرة التكنولوجيا في المملكة المتحدة
في يوليو 2023، بذلت الحكومة الأمريكية جهدًا مماثلًا لمعالجة مخاطر وفوائد الذكاء الاصطناعي. التقىdent جو بايدن مع جوجل، ومايكروسوفت، وميتا، وأوبن إيه آي، وأمازون، وأنثروبيك، وإنفليكشن لمناقشة إجراءات حماية الذكاء الاصطناعي التي تضمن سلامة منتجاتهم قبل إطلاقها.
يتصاعد الجدل حول سلامة الذكاء الاصطناعي في قضية OpenAI
لقد اشتد النقاش حول سلامة الذكاء الاصطناعي في الأشهر الماضية، لا سيما حول الذكاء الاصطناعي العام، الذي يهدف إلى محاكاة الذكاء العام الشبيه بالذكاء البشري.
وجدت شركة OpenAI نفسها في قلب هذا النقاش الأسبوع الماضي بعد استقالة مؤسسها المشارك، إيليا سوتسكيفر، والمدير التنفيذي البارز، يان ليك، من الشركة. وكان الثنائي مسؤولاً عن فريق OpenAI Superalignment الذي أُنشئ لمنع نماذجها من الانحراف عن مسارها.
اقرأ أيضاً: استقالة مسؤول تنفيذي آخر في OpenAI، يان ليكه
وفي منشوره، قال لايكي إنه "على مدار السنوات الماضية، أصبحت ثقافة السلامة والعمليات ذات أهمية ثانوية في مقابل المنتجات اللامعة" في الشركة.
لقد تأخرنا كثيراً في التعامل بجدية بالغة مع تداعيات الذكاء الاصطناعي العام.
— جان ليكه (@janleike) 17 مايو 2024
يجب أن نولي الأولوية القصوى للاستعداد لها قدر الإمكان.
عندها فقط يمكننا ضمان استفادة البشرية جمعاء من الذكاء الاصطناعي العام.
وأضاف ليك أن "OpenAI يجب أن تصبح شركة AGI تضع السلامة في المقام الأول" وأنه يجب علينا إعطاء الأولوية للاستعداد لها بأفضل ما يمكن لضمان استفادة البشرية جمعاء من AGI.
تقرير من إيبام واياس حول Cryptopolitan

