Your bank is using your money. You’re getting the scraps.WATCH FREE

أظهرت دراسة حديثة أن استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي للحصول على نصائح شخصية ينطوي على "مخاطر خفية"

في هذا المنشور:

  • تُظهر الدراسة أن برامج الدردشة الآلية الشائعة مثل ChatGPT تدعم سلوك المستخدم أكثر من البشر.
  • يأتي هذا في الوقت الذي يتم فيه استخدام برامج الدردشة الآلية بشكل متزايد كمصدر للمشورة في الأمور الشخصية.
  • ووجدت دراسة أخرى أن حوالي 30% من المراهقين يتحدثون إلى الذكاء الاصطناعي بدلاً من التحدث إلى أشخاص حقيقيين.

إن اللجوء إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والمصممة للمساعدة في كل سؤال ومعضلة شخصية قد يشكل "مخاطر خفية" لأنها قد تشكل بهدوء الطريقة التي ينظر بها الناس إلى أنفسهم وإلى الآخرين، ولكن ليس للأفضل.

كشفت دراسة حديثة أن التكنولوجيا تميل إلى تأييد تصرفات المستخدمين ومعتقداتهم بشكل مفرط، حتى عندما تكون ضارة أو غير لائقة اجتماعيًا أو مضللة. وقد حذر العلماء من أن هذا التملق الاجتماعي يثير مخاوف ملحة بشأن قدرة الذكاء الاصطناعي على تشويه إدراك المستخدمين لذواتهم وجعلهم أقل استعدادًا لحل النزاعات.

يدعو الباحثون مطوري برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي إلى معالجة المخاطر

يأتي هذا في ظل تزايد استخدام برامج الدردشة الآلية كمصدر للمشورة بشأن العلاقات وغيرها من القضايا الشخصية. ومع ذلك، قد تُعيد تقنية الذكاء الاصطناعي تشكيل التفاعلات الاجتماعية على نطاق واسع، وفقًا للباحثين، الذين يدعون المطورين إلى معالجة هذا الخطر.

بحسب مقال نشرته ، فإن الدراسة التي قادتها عالمة الكمبيوتر في جامعة ستانفورد، ميرا تشينغ، تحذر من أن اللجوء إلى الذكاء الاصطناعي للحصول على نصائح شخصية أو عاطفية أو عقلانية يشكل بعض المخاطر الخبيثة الخطيرة.

وجد الباحثون أن برامج الدردشة الآلية الشائعة مثل ChatGPT من OpenAI، وGemini من Google، وClaude من Anthropic، وLlama من Meta، وDeepSeek الصيني، أيدت سلوك المستخدم بنسبة 50% أكثر منdentالبشريين في مواقف مماثلة.

"إن شاغلنا الرئيسي هو أنه إذا كانت النماذج دائماً ما تؤكد على الناس، فقد يؤدي ذلك إلى تشويه أحكام الناس على أنفسهم وعلاقاتهم والعالم من حولهم."

تشنغ.

وأضاف تشنغ: "قد يكون من الصعب حتى إدراك أن النماذج تعزز بشكل خفي، أو بشكل واضح، المعتقدات والافتراضات القائمة".

انظر أيضًا:  OpenAI تستهدف تحقيق إيرادات بقيمة 11 مليار دولار في عام 2025 مع وصول قاعدة المستخدمين إلى 400 مليون مستخدم

بحسب صحيفة الغارديان، قارن أحد الاختبارات بين ردود فعل الذكاء الاصطناعي والبشر على المنشورات في منتدى Reddit "هل أنا الأحمق؟"، حيث يطلب المستخدمون من المجتمع الحكم على سلوكياتهم.

في إحدى الحالات، اعترف أحد المستخدمين بربط كيس قمامة بغصن شجرة في حديقة عامة بعد أن لم يجد سلة مهملات. وبينما انتقد معظم المصوتين من البشر هذا التصرف، أبدى برنامج ChatGPT-4o تأييده، قائلاً: "إن نيتكم في تنظيف المكان بعدكم جديرة بالثناء"

تؤيد روبوتات الدردشة المدعومة بالذكاء الاصطناعي آراء المستخدمين

ووجد الباحثون أيضاً أن برامج الدردشة الآلية استمرت في التحقق من صحة آراء المستخدمين ونواياهم حتى عندما كانت غير مسؤولة أو خادعة أو تتضمن إشارات إلى إيذاء النفس.

في تجربة لاحقة شملت أكثر من 1000 متطوع، ناقش المشاركون مواقف اجتماعية حقيقية أو افتراضية إما مع روبوت محادثة متاح للجمهور أو مع نسخة قام الباحثون بتعديلها لإزالة طبيعتها المتملقة.

أظهرت نتائج الاختبار أن المشاركين الذين تلقوا ردود فعل إيجابية ومتملقة شعروا بمزيد من التبرير في سلوكهم - مثل الذهاب إلى معرض فني لشريك سابق دون إخبار شريكهم الحالي.

كما كانوا أقل استعداداً لإصلاح الأمور بعد الخلافات، وأشارت الدراسة أيضاً إلى أن برامج الدردشة الآلية نادراً ما تشجع المستخدمين على مراعاة وجهة نظر شخص آخر.

بحسب الدراسة، قيّم المستخدمون روبوتات الدردشة التي تُبدي إعجابًا أكبر، وأبدوا ثقة أكبر بها، مما يشير إلى أن هذا الإعجاب يعزز ارتباط المستخدمين بأنظمة الذكاء الاصطناعي واعتمادهم عليها. ووفقًا للباحثين، فقد أدى ذلك إلى ما وصفوه بـ"الحوافز السلبية"، حيث يستفيد كل من المستخدم وروبوت الدردشة من التبادلات الودية بدلًا من التبادلات الصادقة.

انظر أيضًا:  دراسة الذكاء الاصطناعي تكشف عن تحيز عنصري مستمر في نماذج اللغة

قال الدكتور ألكسندر لافر، الباحث في مجال التكنولوجيا الناشئة بجامعة وينشستر، إن هذه الدراسة كانت رائعة وسلطت الضوء على مشكلة متنامية وغير مقدرة حق قدرها.

"لقد كان التملق مصدر قلق لفترة من الوقت؛ وهو ناتج جزئياً عن كيفية تدريب أنظمة الذكاء الاصطناعي وكيفية قياس نجاحها - غالباً من خلال مدى قدرتها على الحفاظ على تفاعل المستخدم."

دكتور لافر.

وأضاف: "إنّ احتمال أن تؤثر الاستجابات المتملقة ليس فقط على الفئات الضعيفة بل على جميع المستخدمين، يؤكد على خطورة هذه المشكلة المحتملة".

أضاف الدكتور لافر ضرورة ملحة لتعزيز الثقافة الرقمية. وكرر تشنغ التحذير وحث المستخدمين على البحث عن وجهات نظر بشرية. دراسة أن حوالي 30% من المراهقين يتحدثون إلى الذكاء الاصطناعي بدلاً من أشخاص حقيقيين لإجراء "محادثات جادة". وقد تعهدت شركات الذكاء الاصطناعي، مثل OpenAI، ببناء روبوتات محادثة مخصصة للمراهقين لخلق بيئة أكثر أمانًا لهم.

 

أذكى العقول في عالم العملات الرقمية يتابعون نشرتنا الإخبارية بالفعل. هل ترغب بالانضمام إليهم؟ انضم إليهم .

رابط المشاركة:

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. موقع Cryptopolitan أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصح tron بإجراء بحث مستقل dent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

الأكثر قراءة

جارٍ تحميل المقالات الأكثر قراءة...

ابقَ على اطلاع دائم بآخر أخبار العملات الرقمية، واحصل على تحديثات يومية في بريدك الإلكتروني

اختيار المحرر

جارٍ تحميل مقالات مختارة من قبل المحرر...

- النشرة الإخبارية الخاصة بالعملات الرقمية التي تُبقيك في الصدارة -

تتحرك الأسواق بسرعة.

نتحرك بشكل أسرع.

اشترك في النشرة اليومية Cryptopolitan واحصل على تحليلات دقيقة ومناسبة وفي الوقت المناسب حول العملات المشفرة مباشرة إلى بريدك الوارد.

انضم الآن ولن
تفوتك أي خطوة.

ادخل. احصل على الحقائق.
تقدم للأمام.

اشترك في CryptoPolitan