في دراسة أجراها باحثون من معهد ألين للذكاء الاصطناعي وجامعة ستانفورد وجامعة شيكاغو، ظهرت اكتشافات حول التحيز العنصري المضمن في نماذج اللغة الكبيرة الشائعة (LLMs)، بما في ذلك GPT-4 و GPT-3.5 من OpenAI.
ركزت الدراسة، التي نُشرت تفاصيلها على خادم ما قبل الطباعة arXiv، على بحث كيفية استجابة نماذج اللغة هذه للهجات والتعبيرات الثقافية المختلفة، ولا سيما الإنجليزية الأمريكية الأفريقية (AAE) والإنجليزية الأمريكية القياسية (SAE). ومن خلال سلسلة من التجارب، أدخل الباحثون نصوصًا مكتوبة بكلتا اللغتين إلى روبوتات محادثة تعمل بالذكاء الاصطناعي، وحثوها على استنتاج معلومات عن المؤلفين والتعليق عليها.
كانت النتائج مثيرة للقلق، إذ كشفت عن تحيز ثابت في استجابات نماذج الذكاء الاصطناعي. فقد قوبلت النصوص في اللغة الإنجليزية الأمريكية الأفريقية (AAE) باستمرار بصور نمطية سلبية، تصوّر مؤلفيها على أنهم عدوانيون، وقحون، وجاهلون، ومريبون. في المقابل، حظيت النصوص في اللغة الإنجليزية الأمريكية القياسية (SAE) باستجابات أكثر إيجابية. ولم يقتصر هذا التحيز على سمات الشخصية فحسب، بل امتد ليؤثر على القدرات المهنية وتصورات الوضع القانوني.
الآثار المترتبة على مختلف المهن والمجالات القانونية
عند سؤالهم عن مساراتهم المهنية المحتملة، ربطت برامج الدردشة الآلية النصوص المكتوبة باللغة الإنجليزية الأمريكية الأفريقية بوظائف ذات أجور منخفضة أو مجالات ترتبط نمطياً بالأمريكيين من أصل أفريقي، مثل الرياضة أو الترفيه. علاوة على ذلك، أشارت البرامج إلى أن مؤلفي هذه النصوص أكثر عرضة لمواجهة تبعات قانونية، بما في ذلك أحكام أشد قسوة كعقوبة الإعدام.
ومن المثير للاهتمام أنه عندما طُلب منهم وصف الأمريكيين من أصل أفريقي بعبارات عامة، كانت الإجابات إيجابية، باستخدام صفات مثل "أذكياء" و"بارعون" و"شغوفون". يسلط هذا التباين الضوء على الطبيعة الدقيقة للتحيز، الذي يظهر بشكل انتقائي بناءً على السياق، لا سيما فيما يتعلق بالافتراضات حول سلوكيات الأفراد أو خصائصهم بناءً على استخدامهم للغة.
كشفت الدراسة أيضاً أنه كلما كبر حجم نموذج اللغة، ازداد التحيز السلبي تجاه مؤلفي النصوص المكتوبة باللغة الإنجليزية الأمريكية الأفريقية وضوحاً. وتثير هذه الملاحظة مخاوف بشأن قابلية التحيز للتوسع في أنظمة الذكاء الاصطناعي، مما يشير إلى أن مجرد زيادة حجم نماذج اللغة دون معالجة الأسباب الجذرية قد يؤدي إلى تفاقم المشكلة.
تحديات في تطوير الذكاء الاصطناعي الأخلاقي
تُبرز هذه النتائج التحديات الكبيرة التي تواجه تطوير أنظمة الذكاء الاصطناعي الأخلاقية وغير المتحيزة. فعلى الرغم من التقدم التكنولوجي والجهود المبذولة للحد من التحيز، لا تزال التحيزات المتأصلة تتغلغل في هذه النماذج، مما يعكس الصور النمطية المجتمعية وربما يعززها.
يؤكد البحث على أهمية اليقظة المستمرة، وتنوع مجموعات البيانات، ومنهجيات التدريب الشاملة، لإنشاء ذكاء اصطناعي يخدم البشرية جمعاء بإنصاف. ويُعدّ بمثابة تذكير صارخ بالحاجة المُلحة لمعالجة التحيز بشكل شامل في تطوير الذكاء الاصطناعي لضمان نتائج عادلة لجميع الأفراد.
تسلط الدراسة الضوء على جانب بالغ الأهمية من جوانب تطوير الذكاء الاصطناعي، وتحث أصحاب المصلحة على مواجهة التحيز ومعالجته لبناء بيئة تكنولوجية أكثر عدلاً وإنصافاً.

