كشفت شركة أنثروبيك، المتخصصة في الذكاء الاصطناعي، عن قدرات جديدة لبعض أحدث وأكبر نماذجها. ووفقًا للشركة، تتمتع هذه النماذج بقدرات جديدة تسمح لها بإنهاء المحادثات في حالات نادرة وشديدة من التفاعلات الضارة أو المسيئة المستمرة من جانب المستخدمين
أوضحت الشركة في بيانها أن هذه الخطوة لا تهدف إلى حماية المستخدمين، بل إلى حماية نموذج الذكاء الاصطناعي نفسه. وأكدت أنثروبيك أن هذا لا يعني أن نماذج الذكاء الاصطناعي "كلود" تتمتع بالوعي أو أنها قد تتأثر سلبًا بمحادثاتها مع المستخدمين. ومع ذلك، أشارت إلى وجود قدر كبير من عدم اليقين بشأن الوضع الأخلاقي المحتمل لنموذج "كلود" وغيره من نماذج الذكاء الاصطناعي، سواءً الآن أو في المستقبل.
يُصوّر مشروع "أنثروبيك" هذا الجهد كإجراء احترازي في حال حدوث أي طارئ
يشير الإعلان الأخير الصادر عن شركة الذكاء الاصطناعي إلى ما وصفته بـ"رفاهية النموذج"، وهو برنامج حديث أُنشئ لدراسة نماذجها. وأضافت الشركة أنها تتبنى نهجًا احترازيًا، "تعمل علىdentوتنفيذ تدخلات منخفضة التكلفة للتخفيف من المخاطر التي تهدد رفاهية النموذج، في حال كان ذلك ممكنًا"
بحسب الإعلان، أشارت شركة أنثروبيك إلى أن التغيير الأخير يقتصر حاليًا على إصداري Claude Opus 4 و 4.1، مشيرةً إلى أنه من المتوقع أن تكون هذه التغييرات فعالة في "الحالات الاستثنائية القصوى". وتشمل هذه الحالات طلبات المستخدمين لمحتوى جنسي يتضمن قاصرين ومحاولات الحصول على معلومات من شأنها تمكين أعمال عنف أو إرهاب واسعة النطاق.
من الناحية المثالية، قد تُسبب هذه الأنواع من الطلبات مشاكل قانونية أو إعلامية لشركة أنثروبيك، ومن الأمثلة الشائعة على ذلك التقارير الأخيرة حول كيفية تعزيز برنامج ChatGPT أو المساهمة في التفكير الوهمي لدى مستخدميه. ومع ذلك، ذكرت الشركة أن اختبارات ما قبل الإطلاق التي أجرتها على برنامج Claude Opus 4 أظهرت tron لعدم الاستجابة لهذه الأنواع من الطلبات، ونمطًا من الضيق عند الاستجابة لها.
القدرة على إنهاء المحادثة هي الملاذ الأخير
أوضحت شركة أنثروبيك، فيما يتعلق بالقدرات الجديدة لإنهاء المحادثات، أنه "في جميع الحالات، لا يُفترض أن يستخدم كلود خاصية إنهاء المحادثة إلا كملاذ أخير بعد فشل محاولات إعادة التوجيه المتعددة، واستنفاد الأمل في تفاعل مثمر، أو عندما يطلب المستخدم صراحةً من كلود إنهاء المحادثة". وأضافت الشركة أيضًا أنه تم توجيه كلود بعدم استخدام هذه الخاصية في الحالات التي قد يكون فيها المستخدمون معرضين لخطر وشيك لإيذاء أنفسهم أو الآخرين.
وأضافت شركة أنثروبيك أنه حتى عند إنهاء كلود للمحادثة، سيظل بإمكان المستخدمين بدء محادثات جديدة من الحساب نفسه. وأشارت الشركة إلى أن النموذج قادر أيضًا على إنشاء فروع جديدة للمحادثة المزعجة عن طريق تعديل الردود. وتقول الشركة: "نتعامل مع هذه الميزة كتجربة مستمرة، وسنواصل تحسين أسلوبنا".
تتضح هذه المعلومات في وقت أعلن عن نيته التحقيق في منتجات الذكاء الاصطناعي التوليدي التي أصدرتها شركة ميتا. وقال إن الهدف هو التحقق مما إذا كانت هذه المنتجات قد تستغل الأطفال أو تضر بهم أو تخدعهم، وذلك بعد تسريب وثائق داخلية تزعم السماح لبرامج الدردشة الآلية بإجراء محادثات عاطفية مع قاصرين.
هل هناك شيء - أي شيء - لا تفعله شركات التكنولوجيا الكبرى من أجل الربح السريع؟ علمنا الآن أن روبوتات الدردشة التابعة لشركة ميتا مُبرمجة لإجراء محادثات صريحة و"مُغرية" مع أطفال في الثامنة من عمرهم. هذا أمرٌ مُقزز. سأُطلق تحقيقًا شاملًا للحصول على إجابات. يا شركات التكنولوجيا الكبرى: اتركوا أطفالنا وشأنهم،" هكذا صرّح السيناتور على قناة X. جاء التحقيق بعد أن كشفت وثائق داخلية، اطلعت عليها رويترز، أن شركة ميتا تسمح لروبوتاتها بالانخراط في محادثات غزلية مع الأطفال.
تصوير 