OpenAIأطلق سام ألتمان، الرئيس التنفيذي لشركة
واستجابةً لهذه المخاوف، أعلنت OpenAI مؤخرًا عن تشكيل فريق متخصص مكلف بتطوير أساليب لمعالجة المخاطر المرتبطة بالذكاء الخارق، والذي قد يظهر خلال هذا العقد.
الشركة تؤكد أن الإدارة الفعالة للذكاء الخارق تتطلب إنشاء مؤسسات حوكمة جديدة وحل التحدي الحاسم المتمثل في مواءمة الذكاء الخارق مع القيم والنوايا الإنسانية.
تقر منظمة OpenAI بأن مواءمة الذكاء الاصطناعي العام تشكل مخاطر كبيرة على البشرية وقد تتطلب جهداً جماعياً من البشرية جمعاء، كما ورد في منشور مدونة صدر العام الماضي.
يضم الفريق المُشكّل حديثاً، والذي يُطلق عليه اسم "Superalignment"، نخبة من الباحثين والمهندسين في مجال التعلّم الآلي. ويقود هذا المسعى كلٌّ من إيليا سوتسكيفر، المؤسس المشارك وكبير العلماء في OpenAI، ويان ليك، رئيس قسم المحاذاة.
لمعالجة التحديات التقنية الأساسية لمواءمة الذكاء الخارق، التزمت شركة OpenAI بتخصيص 20% من مواردها الحاسوبية المكتسبة حتى الآن لحل مشكلة المواءمة. وتتوقع الشركة أن تتمكن من حل هذه التحديات في غضون أربع سنوات.
يتمثل الهدف الرئيسي لفريق Superalignment في تطوير باحث آليّ في مجال المحاذاة يُضاهي البشر في كفاءته. ويتطلب ذلك إنشاء أنظمة ذكاء اصطناعي قادرة على محاذاة أنظمة الذكاء الاصطناعي فائقة الذكاء بكفاءة عالية، متفوقةً على البشر في السرعة والدقة.
لتحقيق هذا الإنجاز، سيركز الفريق على تطوير منهجية تدريب قابلة للتوسع تستخدم أنظمة الذكاء الاصطناعي لتقييم أنظمة ذكاء اصطناعي أخرى. وسيتحقق الفريق من صحة النموذج الناتج من خلال أتمتة البحث عنmatic التي قد تنطوي على مشاكل. كما ستخضع عملية المحاذاة لاختبارات إجهاد صارمة من خلال تدريب نماذج غير متطابقة عمدًا لتقييم مدى إمكانية اكتشافها.
تُمثل جهود OpenAI في معالجة مخاطر الذكاء الخارق خطوةً هامةً نحو تطوير الذكاء الاصطناعي بشكل مسؤول ومتسق. فمن خلال تشكيل فريق من كبار الباحثين وتخصيص موارد حاسوبية ضخمة، تُبرهن الشركة على التزامها بالتخفيف الاستباقي من المخاطر المحتملة المرتبطة بظهور الذكاء الخارق. ومع انطلاقها في هذه الرحلة الطموحة، تُرسّخ OpenAIdent للتعاون والوحدة في حماية مستقبل البشرية في عصر الذكاء الاصطناعي.
أوبن إيه آي 