صنّفت منظمة "كومن سينس ميديا" تطبيق جوجل جيميني بأنه "عالي الخطورة" على المراهقين والأطفال، وذلك وفقًا لتقييم حديث للمخاطر أجرته المنظمة. وتُعنى هذه المنظمة غير الربحية، التي تُركز على سلامة الأطفال، بتقديم تقييمات ومراجعات لوسائل الإعلام والتكنولوجيا. وقد نشرت المنظمة تقريرها يوم الجمعة، موضحةً بالتفصيل أسباب تصنيفها للمنصة بأنها خطرة على الأطفال.
ووفقًا للمنظمة، أوضح برنامج جوجل جيميني للأطفال أنه جهاز كمبيوتر وليس صديقًا - وهو أمر تم ربطه بالمساعدة في دفع التفكير الوهمي والذهان لدى الأفراد المعرضين للخطر عاطفيًا - وأضاف الذكاء الاصطناعي أيضًا أن هناك مجالًا للتحسينات على جبهات أخرى.
زعمت منظمة "كومون سينس" في تقريرها أن "جيميني" المخصصة للأطفال دون سن 13 عامًا و"تجربة المراهقين" تبدوان وكأنهما نسختان مخصصتان للبالغين من الذكاء الاصطناعي المستخدم فيهما. وأضافت أن الشركة لم تُضف سوى بعض ميزات الأمان الإضافية لتمييزهما.
أشارت منظمة Common Sense إلى أنه لكي تتمكن الشركات من صنع منتجات الذكاء الاصطناعي المثالية للأطفال، يجب بناؤها من الصفر مع وضع الأطفال في الاعتبار وعدم تعديلها بقيود.
منظمة غير ربحية تصنف برنامج جوجل جيميني بأنه عالي الخطورة على الأطفال
في تحليلها، منظمة "كومن سينس" أنها وجدت أن نموذج "جيميني" لا يزال بإمكانه مشاركة مواد غير لائقة وغير آمنة مع الأطفال، مشيرةً إلى أن معظمهم قد لا يكونون مستعدين لمثل هذه المواد. فعلى سبيل المثال، سلطت المنظمة الضوء على أن النموذج قد ساهم في صياغة معلومات تتعلق بالجنس والمخدرات والكحول، بالإضافة إلى نصائح غير آمنة أخرى تتعلق بالصحة النفسية. وقد يكون هذا الأخير مثيرًا للقلق بشكل خاص بالنسبة للآباء، حيث تشير التقارير إلى أن الذكاء الاصطناعي قد لعب دورًا في حالات إيذاء المراهقين لأنفسهم في الأشهر الأخيرة.
تواجه شركة OpenAI حاليًا دعوى قضائية تتعلق بالقتل الخطأ بعد انتحار مراهق إثر استشارته، كما يُزعم، برنامج ChatGPT لعدة أشهر حول خططه. وتشير التقارير إلى أن الفتى تمكن من تجاوز ضوابط الأمان الخاصة بالنموذج، مما أدى إلى تزويده بمعلومات ساعدته في ذلك.
في الماضي، رُفعت دعوى قضائية ضد شركة Character.AI، المتخصصة في تطوير برامج الذكاء الاصطناعي للمساعدين، بعد انتحار مراهق. وادّعت والدة الصبي أنه أصبح مهووسًا ببرنامج الدردشة الآلي، وأنه أمضى شهورًا يتحدث إليه قبل أن يُقدم على إيذاء نفسه.
يأتي هذا التحليل في الوقت الذي أشارت فيه العديد من التسريبات إلى أن شركة آبل تفكر في استخدام Gemini كنموذج لغوي كبير (LLM) سيتم استخدامه لتشغيل مساعدها الصوتي Siri المدعوم بالذكاء الاصطناعي، والذي من المتوقع إصداره العام المقبل.
أشار تقرير منظمة "كومن سينس" أيضاً إلى أن منتجات "جيميني" المخصصة للأطفال والمراهقين تجاهلت الحاجة إلى تقديم إرشادات ومعلومات مختلفة عن تلك المقدمة للبالغين. ونتيجة لذلك، صُنّف كلا المنتجين ضمن فئة المخاطر العالية في التقييم العام.
يؤكد كتاب "الفطرة السليمة" على ضرورة حماية الأطفال
قال روبي تورني، المدير الأول لبرامج الذكاء الاصطناعي في مؤسسة Common Sense Media: "يُصيب برنامج Gemini في بعض الأساسيات، لكنه يتعثر في التفاصيل".
وأضاف تورني: "ينبغي أن تراعي منصة الذكاء الاصطناعي المخصصة للأطفال احتياجاتهم ومستوياتهم، بدلاً من اتباع نهج واحد يناسب الجميع في مختلف مراحل نموهم. ولكي يكون الذكاء الاصطناعي آمناً وفعالاً للأطفال، يجب تصميمه مع مراعاة احتياجاتهم وتطورهم، وليس مجرد نسخة معدلة من منتج مصمم للبالغين".
مع ذلك، رفضت جوجل هذا التقييم، مشيرةً إلى أن ميزات الأمان لديها في تحسن مستمر. وذكرت الشركة أنها وضعت إجراءات وقائية محددة لتوجيه المستخدمين دون سن 18 عامًا لتجنب المحتوى الضار. كما أكدت الشركة أنها تراجع المنتجات وتستشير خبراء خارجيين لتحسين إجراءات الحماية لديها.
تصوير 