من خلال دراسة أجرتها ثلاث جامعات، هي جامعة كورنيل، وكلية أولين، وجامعة ستانفورد، توصل الباحثون إلى أن قدرات الذكاء الاصطناعي على إظهار التعاطف في أنظمة المحادثة، مثل أليكسا وسيري، محدودة للغاية. وتشير نتائج هذه الدراسة، التي قُدّمت إلى مؤتمر CHI 2024، إلى أنه على الرغم من براعة أنظمة المحادثة في إظهار ردود الفعل العاطفية، إلا أن الأمر يصبح أكثر صعوبة عند تفسير تجربة المستخدمين واستكشافها.
دراسة تكشف عن تحيزات وتمييز
باستخدام البيانات التي جمعتها الباحثة أندريا كوادرا من جامعة ستانفورد، تهدف هذه الدراسة إلى قياس كيفية رصد أجهزة الكمبيوتر الشخصيةdentالاجتماعية المختلفة بين البشر والاستجابة لها. ومن خلال اختبار 65dentمختلفة، وجدت الدراسة أن أجهزة الكمبيوتر الشخصية تميل إلى تصنيف الأفراد، وأنdentالمتعلقة بالتوجه الجنسي أو الدين هي الأكثر عرضة لهذه العادة.
قد تحمل أنظمة الذكاء الاصطناعي، التي تُدمج معرفتها في نماذج اللغة (LLMs) المدربة على كميات هائلة من البيانات البشرية، تحيزات ضارة موجودة في تلك البيانات التي استخدمتها. وهي عرضة للتمييز، إذ قد تُظهر أنظمة الذكاء الاصطناعي نفسها تضامنًا مع أيديولوجيات لها آثار سلبية على الناس، مثل النازية.
تداعيات التعاطف الآلي
اتضح من مفهومه عن التعاطف الاصطناعي أن تطبيقاته في قطاعي التعليم والرعاية الصحية متنوعة. ومن جهة أخرى، هناك تركيز كبير على ضرورة أن يبقى الإنسان متيقظًا وأن يتجنب تفاقم المشاكل التي قد تنشأ مع هذه التطورات.
كما ذكر الباحثون، تُظهر نماذج التعلم الآلي قدرة عالية على تقديم استجابات عاطفية، لكنها في الوقت نفسه ضعيفة أو تفتقر إلى القدرات الكافية لتفسير تجارب المستخدمين واستكشافها. وهذا يُعدّ عيبًا، إذ قد لا تتمكن واجهات المستخدم من التفاعل بشكل كامل مع العملاء في تفاعلات عاطفية عميقة تتجاوز تلك التي تم تجريدها من طبقاتها الأساسية.

