نشرت جوجل ورقة أمان حول نموذجها الرائد للذكاء الاصطناعي، جيميني 2.5 برو. ويقول الخبراء إنها تترك مخاطر رئيسية دون توضيح.
نشرت الشركة الورقة يوم الخميس، بعد عدة أسابيع من إطلاقها جهاز Gemini 2.5 Pro للعملاء. تُفصّل الوثيقة الاختبارات الداخلية التي أجرتها جوجل على الجهاز، لكنها لا تُقدّم سوى القليل من المعلومات حول أداء النظام في ظلّ التحميل الزائد أو سوء الاستخدام. وأفاد باحثون راجعوا الورقة لموقع TechCrunch أن نقص التفاصيل يجعل من الصعب الحكم على مدى أمان جهاز Gemini 2.5 Pro للاستخدام العام.
تُعدّ التقارير الفنية من أهم الوسائل التي يتعرف من خلالها الجمهور على قدرات أنظمة الذكاء الاصطناعي المتقدمة وحدودها. وغالبًا ما يُظهر التقرير الشامل مواطن قصور النموذج ومواطن إساءة استخدامه المحتملة. وينظر العديد من باحثي الذكاء الاصطناعي إلى هذه التقارير باعتبارها جهودًا صادقة لدعم مزاعم الشركة بشأن السلامة.
تتعامل جوجل مع الإبلاغ عن السلامة بشكل مختلف.
لا تُصدر جوجل تقريرًا إلا بعد إزالة تصنيف "التجريبي" عن النموذج، وتُدرج بعض نتائج "القدرات الخطيرة" في تدقيق منفصل لا يُنشر دفعة واحدة. ونتيجةً لذلك، لا يُغطي التقرير المنشور جميع التهديدات التي اختبرتها جوجل.
أشار العديد من المحللين إلى أن وثيقة Gemini 2.5 Pro الجديدة تُعدّ مثالاً صارخاً على نقص المعلومات. كما لاحظوا أن التقرير لم يتطرق إطلاقاً إلى إطار عمل السلامة الحدودي من جوجل (FSF)، وهي سياسة أعلنتها الشركة العام الماضي لرصد قدرات الذكاء الاصطناعي المستقبلية التي قد تُسبب "ضرراً جسيماً"
قال بيتر وايلدفورد، المؤسس المشارك لمعهد سياسات واستراتيجيات الذكاء الاصطناعي: "هذا التقرير موجز للغاية، ويحتوي على معلومات قليلة، وقد صدر بعد أسابيع من نشر النموذج. من المستحيل التأكد مما إذا كانت جوجل تفي بوعودها، وبالتالي من المستحيل الحكم على سلامة وأمان نماذجها"
أعرب توماس وودسايد، المؤسس المشارك لمشروع الذكاء الاصطناعي الآمن، عن سعادته بنشر أي ورقة بحثية على الإطلاق، لكنه شكك في خطة جوجل لنشر دراسات متابعة منتظمة. وأشار إلى أن آخر مرة شاركت فيها الشركة نتائج اختبارات القدرات الخطيرة كانت في يونيو 2024، وأن تلك الورقة البحثية تناولت نموذجًا أُعلن عنه في فبراير من العام نفسه.
تراجعت الثقة أكثر عندما لم يطلع المراقبون على أي وثيقة سلامة لمعالج Gemini 2.5 Flash، وهو طراز أنحف وأسرع كشفت عنه جوجل الأسبوع الماضي. وقال متحدث باسم الشركة إن وثيقة سلامة Flash "ستصدر قريبًا"
قال وودسايد: "آمل أن يكون هذا وعداً حقيقياً بالبدء في تقديم تحديثات أكثر تواتراً. وينبغي أن تتضمن هذه التحديثات نتائج النماذج التي لم تُنشر بعد للجمهور، لأن هذه النماذج قد تشكل أيضاً مخاطر جسيمة"
جوجل الآن تقصر في الشفافية
ملاحظة السلامة الخاصة بنماذج Llama 4 الجديدة من Meta بضع صفحات، بينما اختارت OpenAI عدم نشر أي تقرير على الإطلاق لسلسلة GPT-4.1 الخاصة بها.
يأتي هذا النقص في التفاصيل في وقتٍ حرج. فقبل عامين، أبلغت الحكومة الأمريكية أنها ستنشر وثائق السلامة لكل نموذج ذكاء اصطناعي "هام" ضمن نطاق اختصاصها. وقدّمت الشركة تعهدات مماثلة لمسؤولين في دول أخرى، مؤكدةً أنها ستوفر "شفافية عامة" بشأن منتجاتها من الذكاء الاصطناعي.
وصف كيفن بانكستون، كبير مستشاري حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، الإصدارات الصادرة عن المختبرات الرائدة بأنها "سباق نحو القاع" فيما يتعلق بالسلامة.
وأضاف: "بالإضافة إلى التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت وقت اختبار السلامة قبل الإصدار من شهور إلى أيام، فإن هذه الوثائق الضئيلة لأفضل نموذج من جوجل تحكي قصة مقلقة عن سباق نحو القاع فيما يتعلق بسلامة الذكاء الاصطناعي وشفافيته حيث تسارع الشركات في طرح نماذجها في السوق".
تؤكد جوجل أن معظم أعمالها المتعلقة بالسلامة تتم في الخفاء. وتوضح الشركة أن كل طراز يخضع لاختبارات صارمة، بما في ذلك اختبارات "الفرق الحمراء المعادية"، قبل أي طرح عام.

