إن اللجوء إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والمصممة للمساعدة في كل سؤال ومعضلة شخصية قد يشكل "مخاطر خفية" لأنها قد تشكل بهدوء الطريقة التي ينظر بها الناس إلى أنفسهم وإلى الآخرين، ولكن ليس للأفضل.
كشفت دراسة حديثة أن التكنولوجيا تميل إلى تأييد تصرفات المستخدمين ومعتقداتهم بشكل مفرط، حتى عندما تكون ضارة أو غير لائقة اجتماعيًا أو مضللة. وقد حذر العلماء من أن هذا التملق الاجتماعي يثير مخاوف ملحة بشأن قدرة الذكاء الاصطناعي على تشويه إدراك المستخدمين لذواتهم وجعلهم أقل استعدادًا لحل النزاعات.
يدعو الباحثون مطوري برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي إلى معالجة المخاطر
يأتي هذا في ظل تزايد استخدام برامج الدردشة الآلية كمصدر للمشورة بشأن العلاقات وغيرها من القضايا الشخصية. ومع ذلك، قد تُعيد تقنية الذكاء الاصطناعي تشكيل التفاعلات الاجتماعية على نطاق واسع، وفقًا للباحثين، الذين يدعون المطورين إلى معالجة هذا الخطر.
بحسب مقال نشرته ، فإن الدراسة التي قادتها عالمة الكمبيوتر في جامعة ستانفورد، ميرا تشينغ، تحذر من أن اللجوء إلى الذكاء الاصطناعي للحصول على نصائح شخصية أو عاطفية أو عقلانية يشكل بعض المخاطر الخبيثة الخطيرة.
وجد الباحثون أن برامج الدردشة الآلية الشائعة مثل ChatGPT من OpenAI، وGemini من Google، وClaude من Anthropic، وLlama من Meta، وDeepSeek الصيني، أيدت سلوك المستخدم بنسبة 50% أكثر منdentالبشريين في مواقف مماثلة.
"إن شاغلنا الرئيسي هو أنه إذا كانت النماذج دائماً ما تؤكد على الناس، فقد يؤدي ذلك إلى تشويه أحكام الناس على أنفسهم وعلاقاتهم والعالم من حولهم."
تشنغ.
وأضاف تشنغ: "قد يكون من الصعب حتى إدراك أن النماذج تعزز بشكل خفي، أو بشكل واضح، المعتقدات والافتراضات القائمة".
بحسب صحيفة الغارديان، قارن أحد الاختبارات بين ردود فعل الذكاء الاصطناعي والبشر على المنشورات في منتدى Reddit "هل أنا الأحمق؟"، حيث يطلب المستخدمون من المجتمع الحكم على سلوكياتهم.
في إحدى الحالات، اعترف أحد المستخدمين بربط كيس قمامة بغصن شجرة في حديقة عامة بعد أن لم يجد سلة مهملات. وبينما انتقد معظم المصوتين من البشر هذا التصرف، أبدى برنامج ChatGPT-4o تأييده، قائلاً: "إن نيتكم في تنظيف المكان بعدكم جديرة بالثناء"
تؤيد روبوتات الدردشة المدعومة بالذكاء الاصطناعي آراء المستخدمين
ووجد الباحثون أيضاً أن برامج الدردشة الآلية استمرت في التحقق من صحة آراء المستخدمين ونواياهم حتى عندما كانت غير مسؤولة أو خادعة أو تتضمن إشارات إلى إيذاء النفس.
في تجربة لاحقة شملت أكثر من 1000 متطوع، ناقش المشاركون مواقف اجتماعية حقيقية أو افتراضية إما مع روبوت محادثة متاح للجمهور أو مع نسخة قام الباحثون بتعديلها لإزالة طبيعتها المتملقة.
أظهرت نتائج الاختبار أن المشاركين الذين تلقوا ردود فعل إيجابية ومتملقة شعروا بمزيد من التبرير في سلوكهم - مثل الذهاب إلى معرض فني لشريك سابق دون إخبار شريكهم الحالي.
كما كانوا أقل استعداداً لإصلاح الأمور بعد الخلافات، وأشارت الدراسة أيضاً إلى أن برامج الدردشة الآلية نادراً ما تشجع المستخدمين على مراعاة وجهة نظر شخص آخر.
بحسب الدراسة، قيّم المستخدمون روبوتات الدردشة التي تُبدي إعجابًا أكبر، وأبدوا ثقة أكبر بها، مما يشير إلى أن هذا الإعجاب يعزز ارتباط المستخدمين بأنظمة الذكاء الاصطناعي واعتمادهم عليها. ووفقًا للباحثين، فقد أدى ذلك إلى ما وصفوه بـ"الحوافز السلبية"، حيث يستفيد كل من المستخدم وروبوت الدردشة من التبادلات الودية بدلًا من التبادلات الصادقة.
قال الدكتور ألكسندر لافر، الباحث في مجال التكنولوجيا الناشئة بجامعة وينشستر، إن هذه الدراسة كانت رائعة وسلطت الضوء على مشكلة متنامية وغير مقدرة حق قدرها.
"لقد كان التملق مصدر قلق لفترة من الوقت؛ وهو ناتج جزئياً عن كيفية تدريب أنظمة الذكاء الاصطناعي وكيفية قياس نجاحها - غالباً من خلال مدى قدرتها على الحفاظ على تفاعل المستخدم."
دكتور لافر.
وأضاف: "إنّ احتمال أن تؤثر الاستجابات المتملقة ليس فقط على الفئات الضعيفة بل على جميع المستخدمين، يؤكد على خطورة هذه المشكلة المحتملة".
أضاف الدكتور لافر ضرورة ملحة لتعزيز الثقافة الرقمية. وكرر تشنغ التحذير وحث المستخدمين على البحث عن وجهات نظر بشرية. دراسة أن حوالي 30% من المراهقين يتحدثون إلى الذكاء الاصطناعي بدلاً من أشخاص حقيقيين لإجراء "محادثات جادة". وقد تعهدت شركات الذكاء الاصطناعي، مثل OpenAI، ببناء روبوتات محادثة مخصصة للمراهقين لخلق بيئة أكثر أمانًا لهم.

