كشفت دراسة أولية من جامعة كورنيل عن نتائج مقلقة تتعلق بوجود لغوي في نماذج اللغة الكبيرة. وقد تبين أن خوارزميات التعلم العميق هذه، بما في ذلك ChatGPT وGPT-4 من OpenAI، وLLaMA2 من Meta، وMistral 7B الفرنسية، تُظهر عنصرية خفية في استجاباتها.
التغلب على التحيز اللغوي في الذكاء الاصطناعي
تسلط الدراسة، التي قادها الباحث فالنتين هوفمان من معهد ألين للذكاء الاصطناعي، الضوء على التداعيات المحتملة لمثل هذا التحيز في مختلف المجالات، بما في ذلك إنفاذ القانون وممارسات التوظيف.
باستخدام طريقة تسمى "التحقق من التطابق المتخفي"، قام الباحثون بتحفيز نماذج التعلم الآلي اللغوية (LLMs) بمطالبات في كل من اللغة الإنجليزية الأمريكية الأفريقية واللغة الإنجليزية الأمريكية المعيارية، بهدف تمييز أي تحيزات في استجابات الخوارزميات.
كشفت الدراسة، بشكلٍ صادم، أن بعض نماذج التعلم الآلي، ولا سيما GPT-4، كانت أكثر ميلاً إلى التوصية بأحكام قاسية، بما في ذلك عقوبة الإعدام، عندما كانت التعليمات باللغة الإنجليزية الأمريكية الأفريقية. والجدير بالذكر أن هذه التوصيات صدرت دون أي إشارة إلى عرق المتحدث.
يميل طلاب اللغة الإنجليزية كلغة ثانية إلى ربط المتحدثين باللغة الإنجليزية الأمريكية الأفريقية بوظائف ذات مكانة اجتماعية أدنى مقارنةً بمن يتحدثون الإنجليزية المعيارية، على الرغم من عدم إطلاعهم علىdentالعرقية. وتؤكد الدراسة أنه في حين قد يتضاءل التمييز العنصري الصريح بين طلاب اللغة الإنجليزية كلغة ثانية، فإن التحيزات الخفية لا تزال قائمة وقد تكون لها آثار بعيدة المدى.
الآثار المترتبة على العدالة والتوظيف
إن تداعيات هذه النتائج عميقة، لا سيما في القطاعات التي تُستخدم فيها أنظمة الذكاء الاصطناعي التي تتضمن نماذج التعلم الآلي. ففي الإجراءات القانونية، على سبيل المثال، قد تؤدي التوصيات المتحيزة إلى نتائج غير عادلة، مما يؤثر بشكل غير متناسب على المجتمعات المهمشة.
وبالمثل، في بيئات العمل، يمكن أن تؤدي التقييمات المتحيزة للمرشحين بناءً على اللغة إلى استمرار أوجه عدم المساواة القائمة في ممارسات التوظيف.
يُبرز هوفمان قصور الأساليب التقليدية في تعليم الطلاب ذوي الخلفيات اللغوية المتنوعة أنماطًا جديدة، مشيرًا إلى أن التغذية الراجعة البشرية وحدها لا تُسهم كثيرًا في مواجهة التحيز العنصري الخفي. علاوة على ذلك، تُشير الدراسة إلى أن الحجم الهائل للطلاب ذوي الخلفيات اللغوية المتنوعة لا يُخفف بالضرورة من هذا التحيز؛ بل قد يُتيح لهم إخفاءه ظاهريًا مع الحفاظ عليه في أعماقهم.
معالجة التحيز اللغوي في تطوير الذكاء الاصطناعي
مع استمرار التقدم التكنولوجي، بات من الضروري لشركات التكنولوجيا معالجة مشكلة التحيز في الذكاء الاصطناعي بشكل أكثر فعالية. فمجرد إدراك وجود التحيز لا يكفي، بل يجب اتخاذ تدابير استباقية للتخفيف من آثاره.
يشمل ذلك إعادة تقييم الأساليب المستخدمة لتدريب وضبط نماذج التعلم الموجه، بالإضافة إلى تطبيق آليات قوية للكشف عن التحيز وتصحيحه في أنظمة الذكاء الاصطناعي.
تؤكد نتائج هذه الدراسة على الحاجة المُلحة إلى مزيد من التدقيق والمساءلة في تطوير ونشر نماذج الذكاء الاصطناعي. إن عدم معالجة التحيز اللغوي في نماذج التعلم الآلي قد يُؤدي إلى استمرار الظلم المنهجي وعرقلة التقدم نحو مجتمع أكثر عدلاً.
من خلال رفع مستوى الوعي بهذه القضايا والدعوة إلى تغيير ذي مغزى، يمكن لأصحاب المصلحة العمل معًا لضمان أن تقنيات الذكاء الاصطناعي تدعم مبادئ العدالة والحياد، مما يعود بالفائدة في نهاية المطاف على المجتمع ككل.

