من خلال دراسة أجرتها ثلاث جامعات: جامعة كورنيل، وكلية أولين، وجامعة ستانفورد، توصل الباحثون إلى أن قدرات الذكاء الاصطناعي على إظهار التعاطف في أنظمة المحادثة، مثل أليكسا وسيري، محدودة للغاية. وتشير نتائج هذه الدراسة، التي قُدّمت إلى مؤتمر CHI 2024، إلى أنه على الرغم من براعة هذه الأنظمة في إظهار ردود الفعل العاطفية، إلا أن الأمر يصبح أكثر صعوبة عند تفسير تجربة المستخدمين واستكشافها.
الكشف عن التحيزات والتمييز
باستخدام البيانات التي جمعتها الباحثة أندريا كوادرا من جامعة ستانفورد، تهدف هذه الدراسة إلى قياس كيفية رصد أجهزة الكمبيوتر الشخصيةdentالاجتماعية المختلفة بين البشر والاستجابة لها. ومن خلال اختبار 65dentمختلفة، وجدت الدراسة أن أجهزة الكمبيوتر الشخصية تميل إلى تصنيف الأفراد، وأنdentالمتعلقة بالتوجه الجنسي أو الدين هي الأكثر عرضة لهذه العادة.
قد تحتوي أنظمة الذكاء الاصطناعي، التي تُدمج معرفتها في نماذج اللغة (LLMs) المدربة على كميات هائلة من البيانات البشرية، على تحيزات ضارة كامنة في البيانات التي استخدمتها. وهي عرضة للتمييز، إذ قد تُظهر أنظمة الذكاء الاصطناعي نفسها تضامنًا مع أيديولوجيات لها آثار سلبية على الناس، مثل النازية.
تداعيات التعاطف الآلي
لقد كشف مفهومه عن التعاطف الاصطناعي عن تنوع تطبيقاته في قطاعي التعليم والرعاية الصحية. ومن جهة أخرى، هناك تأكيد كبير على ضرورة توخي الحذر وتجنب تفاقم المشكلات التي قد تنشأ مع هذه التطورات.
كما ذكر الباحثون، تُظهر نماذج التعلم الموجه (LLMs) قدرة عالية على إثارة الاستجابات العاطفية، لكنها في الوقت نفسه تعاني من قصور أو نقص في القدرات الكافية لتفسير تجارب المستخدمين واستكشافها. يُعدّ هذا عيبًا، إذ قد لا تتمكن واجهات المستخدم من التفاعل بشكل كامل مع العملاء في تفاعلات عاطفية عميقة تتجاوز تلك التي تم تجريدها من طبقاتها الأساسية.

