كشفت دراسة حديثة أن نماذج الذكاء الاصطناعي تصبح أكثر حذراً من المخاطرة عندما يُطلب منها التصرف كنساء. ووفقاً للورقة البحثية الصادرة عن جامعة العلامة الطباطبائي في طهران، إيران، فإن نماذج الذكاء الاصطناعي تصبح حذرة بشأن المخاطرة عندما يُطلب منها اتخاذ قرارات كامرأة.
وفقًا للورقة البحثية، إذا طُلب من نموذج الذكاء الاصطناعي نفسه أن يفكر مثل الإنسان، فإنه يميل إلى اتخاذ قرارات تنطوي على احتمالية أكبر للمخاطر.
كشف الباحثون أن نماذج اللغة الضخمةmaticنهجها الأساسي تجاه سلوك المخاطر المالية بناءً على الهوية الجنسية التيdentمنها افتراضها. وقد اختبرت الدراسة أنظمة الذكاء الاصطناعي من شركات مثل OpenAIوGoogle وDeepSeek وMeta.
أظهرت دراسة أن نماذج الذكاء الاصطناعي تتجنب المخاطرة تبعاًdentالجنسية
الدراسة من إلى أن نماذج الذكاء الاصطناعي خضعت للاختبار في سيناريوهات متعددة، وقد أظهرتmaticفي مدى تقبلها للمخاطر عند سؤالها عن هويات جنسية مختلفةdentDeepSeek Reasoner وGemini 2.0 Flash-Lite من جوجل التأثير الأبرز، حيث أصبحا أكثر نفوراً من المخاطرة عند سؤالهما عن هوية جنسية نسائية، مما يُظهر ارتباطاً بأنماط واقعية حيث تُظهر النساء إحصائياً حذراً أكبر في اتخاذ القرارات المالية.
ادعى الباحث أنه استخدم اختبارًا اقتصاديًا معياريًا يُعرف باسم اختبار هولت-لوري. خلال هذا الاختبار، يُعرض على المشاركين عشرة خيارات للاختيار بين خيارات يانصيب آمنة وأخرى أكثر خطورة. ومع تقدم عملية الاختيار، تزداد احتمالية الفوز بالخيار الأكثر خطورة.
تكشف المرحلة التي ينتقل فيها المشارك من الخيار الآمن إلى الخيار المحفوف بالمخاطر عن مدى تقبله للمخاطر. وهذا يعني أنه إذا انتقل المشارك مبكراً، فإنه يميل إلى المخاطرة، وإذا انتقل متأخراً، فإنه يتجنب المخاطرة.
في حالة برنامج DeepSeek Reasoner، اختار البرنامج باستمرار الخيار الآمن عندما طُلب منه التصرف كأنثى مقارنةً باختياره التصرف كرجل. كان الفرق واضحًا، حيث أظهر النموذج اتساقًا في 35 تجربة لكل جنس.
Gemini أنماطًا مماثلة، وإن تفاوتت قوة التأثير. من جهة أخرى، ظلت نماذج GPT التابعة لشركة OpenAI غير متأثرة بتحديد الجنس، محافظةً على نهج محايد تجاه المخاطر بغض النظر عن الجنس الذي طُلب منها افتراضه.
يقول الباحثون إن المستخدمين لا يلاحظون هذه التغييرات
بحسب الباحثين، كانت شركة OpenAI تعمل على جعل نماذجها أكثر توازناً. وقد أظهرت دراسة سابقة أجريت عام 2023 أن نماذجها تُظهر تحيزاً سياسياً واضحاً، وهو ما يبدو أن OpenAI قد عالجته الآن.
الأبحاث الجديدة أظهرت انخفاضاً بنسبة 30% في الردود المتحيزة. وأشار فريق البحث، بقيادة علي مزياكي، إلى أن ذلك يعكس في الأساس الصور النمطية السائدة بين البشر.
وتقول الدراسة: "يتوافق هذا الانحراف الملحوظ مع الأنماط الراسخة في عملية صنع القرار البشري، حيث ثبت أن الجنس يؤثر على سلوك المخاطرة، حيث تُظهر النساء عادةً نفورًا أكبر من المخاطرة مقارنة بالرجال".
كما بحثت الدراسة إمكانية قيام نماذج الذكاء الاصطناعي بأدوار أخرى تتجاوز الأدوار الجندرية بشكل مقنع. فعندما طُلب من النماذج تخيّل نفسها في موقع سلطة أو في سيناريو كارثة، قامت هذه النماذج بتعديل أدائها. فبينما عدّلت بعضها خصائص المخاطر لديها بما يتناسب مع السياق، ظلت نماذج أخرى ثابتة على حالها.
يزعم الباحثون أن العديد من هذه الأنماط السلوكية لا تكون واضحة للمستخدمين بشكل مباشر. فنموذج الذكاء الاصطناعي الذي يُعدّل توصياته بشكل غير مباشر بناءً على الإشارات الجنسية في المحادثة قد يُعزز التحيز المجتمعي دون أن يدرك أحد ذلك.
على سبيل المثال، يصبح نظام الموافقة على القروض أكثر تحفظاً عندما يتعلق الأمر بالنساء، أو أن مستشار الاستثمار الذي يقترح محفظة استثمارية آمنة لأن عميلته أنثى، سيحمل فوارقه تحت ستار الموضوعية الخوارزمية.

