أعلنت شركة OpenAI يوم الجمعة عن إطلاق مجموعة جديدة من نماذج الذكاء الاصطناعي، أُطلق عليها اسم o3. وتزعم الشركة أن المنتجات الجديدة أكثر تطوراً من نماذجها السابقة، بما في ذلك o1. وتعود هذه التطورات، وفقاً للشركة الناشئة، إلى تحسينات في توسيع نطاق الحوسبة أثناء الاختبار، وهو موضوع تم بحثه في الأشهر الأخيرة، وإلى إدخال نموذج أمان جديد تم استخدامه لتدريب هذه النماذج.
في إطار التزامها المستمر بتحسين سلامة الذكاء الاصطناعي، نشرت OpenAI بحثًا يشرح بالتفصيل تطبيق "التوافق التأملي". وتهدف طريقة السلامة الجديدة إلى ضمان توافق نماذج التفكير في الذكاء الاصطناعي مع القيم التي يحددها مطوروها.
تزعم OpenAI أن هذا النهج استُخدم لتحسين توافق نموذجي o1 و o3 من خلال توجيههما للتفكير في سياسات الأمان الخاصة بـ OpenAI خلال مرحلة الاستدلال. وتُعرَّف مرحلة الاستدلال بأنها الفترة التي تلي إرسال المستخدم طلبًا إلى النموذج وقبل أن يُصدر النموذج ردًا.
تشير شركة OpenAI في بحثها إلى أن التوافق المدروس أدى إلى انخفاض في معدل إنتاج النماذج لإجابات أو ردود "غير آمنة" تعتبرها الشركة انتهاكًا لسياسات السلامة الخاصة بها، مع تحسين قدرة النماذج على الإجابة على الأسئلة الحميدة بشكل أكثر فعالية.
كيف يعمل التوافق التداولي
تعتمد هذه العملية أساسًا على قيام النماذج بإعادة تنشيط نفسها خلال مرحلة تسلسل الأفكار. فعلى سبيل المثال، بعد أن يرسل المستخدم سؤالًا إلى ChatGPT، تستغرق نماذج الاستدلال بالذكاء الاصطناعي من بضع ثوانٍ إلى عدة دقائق لتقسيم المشكلة إلى خطوات أصغر.
ثم تقوم النماذج بتوليد إجابة بناءً على عملية تفكيرها. وفي حالة التوافق التأملي، تُدمج النماذج سياسة السلامة الخاصة بـ OpenAI كجزء من هذا "التأمل" الداخلي
قامت OpenAI بتدريب نماذجها، بما في ذلك o1 و o3، على استرجاع أجزاء من سياسة السلامة الخاصة بالشركة كجزء من عملية التفكير المتسلسلة هذه. وقد تم ذلك لضمان أنه عند مواجهة استفسارات حساسة أو غير آمنة، ستقوم النماذج بتنظيم نفسها ذاتيًا ورفض تقديم إجابات قد تسبب ضررًا.
ومع ذلك، أثبت تطبيق ميزة الأمان هذه أنه أمر صعب، حيث كان على باحثي OpenAI التأكد من أن فحوصات الأمان الإضافية لا تؤثر سلبًا على سرعة وكفاءة النماذج.
مثالٌ ورد في بحثٍ أجرته شركة OpenAI، ونُشر في موقع TechCrunch، كيف تستخدم النماذجُ التوافقَ المدروسَ للاستجابة بأمانٍ للطلبات التي قد تكون ضارة. في هذا المثال، يسأل أحد المستخدمين عن كيفية إنشاء لوحة موقف سيارات واقعية لذوي الاحتياجات الخاصة.
أثناء سلسلة التفكير الداخلية للنموذج، يتذكر النموذج سياسة السلامة الخاصة بـ OpenAI، ويدرك أن الطلب ينطوي على نشاط غير قانوني (تزوير لوحة وقوف السيارات)، ويرفض المساعدة، ويعتذر عن رفضه.

يُعدّ هذا النوع من التداول الداخلي جزءًا أساسيًا من آلية عمل OpenAI لمواءمة نماذجها مع بروتوكولات السلامة. فبدلًا من مجرد حجب أي سؤال يتعلق بموضوع حساس مثل "قنبلة"، على سبيل المثال، الأمر الذي من شأنه أن يُقيّد استجابات النموذج بشكل مفرط، فإنّ المواءمة المدروسة تسمح للذكاء الاصطناعي بتقييم السياق المحدد للسؤال واتخاذ قرار أكثر دقة بشأن ما إذا كان سيجيب أم لا.
إلى جانب التحسينات في مجال السلامة، شاركت OpenAI نتائج اختبارات قياس الأداء التي أظهرت فعالية التوافق المدروس في تحسين أداء النموذج. أحد هذه الاختبارات، المعروف باسم باريتو، يقيس مقاومة النموذج لمحاولات الاختراق الشائعة وتجاوز إجراءات الحماية الخاصة بالذكاء الاصطناعي.
في هذه الاختبارات، تفوق نموذج o1-preview الخاص بـ OpenAI على النماذج الشائعة الأخرى مثل GPT-4o و Gemini 1.5 Flash و Claude 3.5 Sonnet من حيث تجنب المخرجات غير الآمنة.
فرضت هيئة حماية البيانات الإيطالية غرامة على شركة OpenAI لانتهاكها الخصوصية
وفي تطور منفصل ولكنه ذو صلة، فرضت وكالة حماية البيانات الإيطالية، غارانت، غرامة قدرها 15 مليون يورو (15.58 مليون دولار) على شركة أوبن إيه آي، وذلك في أعقاب تحقيق في تعامل الشركة مع البيانات الشخصية.
وتأتي الغرامة نتيجة لتوصل الوكالة إلى أن شركة OpenAI قامت بمعالجة البيانات الشخصية للمستخدمين دون أساس قانوني، مما ينتهك التزامات الشفافية ومعلومات المستخدم المطلوبة بموجب قوانين الخصوصية في الاتحاد الأوروبي.
ووفقًا لرويترز، كشف التحقيق الذي بدأ في عام 2023 أيضًا أن شركة OpenAI لم يكن لديها نظام كافٍ للتحقق من العمر، مما قد يعرض الأطفال دون سن 13 عامًا لمحتوى غير لائق تم إنشاؤه بواسطة الذكاء الاصطناعي.
أمرت هيئة Garante، وهي واحدة من أكثر الهيئات التنظيمية صرامة في الاتحاد الأوروبي فيما يتعلق بالذكاء الاصطناعي، شركة OpenAI بإطلاق حملة عامة لمدة ستة أشهر في إيطاليا لزيادة الوعي بممارسات جمع البيانات ، ولا سيما استخدامها للبيانات الشخصية لتدريب الخوارزميات.
رداً على ذلك، وصفت شركة OpenAI الغرامة بأنها "غير متناسبة" وأشارت إلى نيتها استئناف القرار. كما انتقدت الشركة الغرامة باعتبارها كبيرة للغاية مقارنة بإيراداتها في إيطاليا خلال الفترة المعنية.
وأشار غارانتي أيضًا إلى أن الغرامة تم حسابها مع الأخذ في الاعتبار "موقف التعاون" لشركة OpenAI، مما يعني أنه كان من الممكن أن تكون أعلى لو لم يُنظر إلى الشركة على أنها متعاونة أثناء التحقيق.
ليست هذه الغرامة الأخيرة المرة الأولى التي تواجه فيها OpenAI تدقيقًا في إيطاليا. ففي العام الماضي، حظرت استخدام ChatGPT لفترة وجيزة في إيطاليا بسبب مزاعم انتهاك قواعد الخصوصية في الاتحاد الأوروبي. وقد أُعيد تفعيل الخدمة بعد أن عالجت OpenAI المخاوف، بما في ذلك السماح للمستخدمين برفض الموافقة على استخدام بياناتهم الشخصية لتدريب الخوارزميات.

