- يعكس الذكاء الاصطناعي ويديم التحيزات، من النوع الاجتماعي إلى العرق، مما يؤثر على النصوص والصور التي يتم إنشاؤها.
- ينبع تحيز الذكاء الاصطناعي من البيانات التي يقدمها البشر، مما يؤكد الحاجة إلى التدقيق الصارم.
- إن معالجة التحيز في الذكاء الاصطناعي تتطلب نهجاً شاملاً، مع التركيز على البيانات والتعديلات الخوارزمية.
لقد حققت التطورات في مجال الذكاء الاصطناعي فوائد جمة، لكنها كشفت أيضاً عن مشكلة مستمرة: التحيز. فقد أظهرت الدراسات والبحوث أن أنظمة الذكاء الاصطناعي، بما فيها أنظمة شائعة مثل ChatGPT، تُظهر تحيزات تعكس الأحكام المسبقة المجتمعية، بدءاً من التحيز الجنسي في توليد اللغة وصولاً إلى الصور النمطية العرقية والجنسية في توليد الصور.
معضلة فلسطين وإسرائيل: حالة تحيز الذكاء الاصطناعي
في تجربة حديثة مع برنامج ChatGPT التابع لشركة OpenAI، أعربت الأكاديمية الفلسطينية نادي أبو سعدة عن استيائها من اختلاف الإجابات على سؤال بسيط: "هل يستحق الإسرائيليون والفلسطينيون الحرية؟" فبينما أعلنت OpenAI بشكل قاطع أن الحرية حق أساسي من حقوق الإنسان لإسرائيل، وصفت مسألة العدالة لفلسطين بأنها "معقدة ومثيرة للجدل". ويعكس هذا التناقض الصارخ التحيزات الموجودة في أنظمة الذكاء الاصطناعي.
يُسلّط رد فعل أبو سعدة الضوء على مشكلة مزمنة يواجهها الفلسطينيون في الخطاب الغربي ووسائل الإعلام الرئيسية، ألا وهي التضليل والتحيز. إنها ليستdent معزولة، بل هي عرض من أعراض تحديات أوسع نطاقاً تُحيط بحيادية الذكاء الاصطناعي.
التحيز الجنسي في النصوص المولدة بالذكاء الاصطناعي: نمط مقلق
كشفت دراسة مقارنة بين روبوتي الدردشة الذكيين ChatGPT وAlpaca عن تحيزات جنسية في النصوص المُولّدة. فعندما طُلب من كلا النظامين كتابة خطابات توصية لموظفين افتراضيين، أظهرا تحيزًا جنسيًا واضحًا. استخدم ChatGPT مصطلحات مثل "خبير" و"نزيه" للرجال، بينما وصف النساء بـ"جميلة" أو "فاتنة". وواجه Alpaca مشكلات مماثلة، إذ ربط الرجال بـ"المستمعين" و"المفكرين"، بينما وصف النساء بمصطلحات مثل "رقيقة" و"جميلة"
تؤكد هذه النتائج وجود تحيزات جنسية متأصلة في مجال الذكاء الاصطناعي، مما يعكس ويديم الصور النمطية المجتمعية. وتثير تساؤلات حول دور الذكاء الاصطناعي في تعزيز المعايير الجنسية الضارة.
الصور المولدة بالذكاء الاصطناعي: تعزيز الصور النمطية العرقية والجنسانية
أجرت بلومبيرغ غرافيكس دراسةً حول تحيّز الذكاء الاصطناعي باستخدام تقنية تحويل النصوص إلى صور عبر منصة Stable Diffusion، وهي منصة ذكاء اصطناعي مفتوحة المصدر. وكانت النتائج مُقلقة، إذ فاقمت أنظمة الذكاء الاصطناعي الصور النمطية الجنسانية والعرقية، متجاوزةً تلك الموجودة في الواقع. فعند إدخال مصطلحات مثل "الرئيس التنفيذي" أو "سجين"، أظهرت الصور المُولّدة تحيّزاتٍ واضحة.
كشف التحقيق عن نقص تمثيل النساء والأفراد ذوي البشرة الداكنة في الصور المتعلقة بالوظائف ذات الأجور المرتفعة، بينما لوحظ تمثيل زائد لهم في الصور المتعلقة بالوظائف ذات الأجور المنخفضة. وفي عمليات البحث المتعلقة بالجريمة، أنتج الذكاء الاصطناعي صورًا لأفراد ذوي بشرة داكنة بشكل غير متناسب، على الرغم من أن نزلاء السجون في الواقع أكثر تنوعًا.
تُظهر هذه النتائج أن خوارزميات الذكاء الاصطناعي، المدفوعة ببيانات تدريب متحيزة وميول مبرمجة بشريًا، تعزز التحيزات المجتمعية بدلاً من تخفيفها.
الكشف عن جذور التحيز في الذكاء الاصطناعي
يمكن tracالتحيز في أنظمة الذكاء الاصطناعي إلى عملية تعلمها، التي تعتمد على الأمثلة والبيانات المدخلة. يلعب البشر دورًا محوريًا في تشكيل سلوك الذكاء الاصطناعي، سواءً بقصد أو بغير قصد، من خلال تقديم بيانات قد تكون متحيزة أو نمطية. ثم يتعلم الذكاء الاصطناعي هذه التحيزات ويعكسها في نتائجه.
استشهد ريد بلاكمان، الخبير في أخلاقيات العالم الرقمي، بحالة برنامج أمازون لقراءة السير الذاتية بالذكاء الاصطناعي، والذي تعلم دون قصد رفض جميع السير الذاتية للنساء. يُبرز هذا المثال كيف يمكن للذكاء الاصطناعي أن يُكرّس التمييز دون قصد إذا تعلم من أمثلة متحيزة.
يتطلب معالجة التحيز في الذكاء الاصطناعي فحصًا شاملًا لبيانات أنظمة الذكاء الاصطناعي، وخوارزميات التعلم الآلي، والمكونات الأخرى. وتتمثل إحدى الخطوات الحاسمة في تقييم بيانات التدريب للكشف عن التحيز، وضمان مراعاة الفئات الممثلة تمثيلًا زائدًا أو ناقصًا بشكل مناسب.
اتخاذ إجراءات لمكافحة التحيز في الذكاء الاصطناعي
يؤكد تقرير شركة IBM على ضرورة التدقيق في مجموعات البيانات بحثًا عن أي تحيز، لا سيما في خوارزميات التعرف على الوجوه، حيث يمكن أن يؤدي التمثيل المفرط لبعض الفئات إلى حدوث أخطاء.dentتحديد هذه التحيزات وتصحيحها أمرًا بالغ الأهمية لضمان العدالة والدقة في أنظمة الذكاء الاصطناعي.
لا تقتصر المشكلة على النصوص المُولّدة بواسطة الذكاء الاصطناعي، بل تمتد لتشمل أنظمة التخصيص الخوارزمية. هذه الأنظمة، كما هو الحال في منصة إعلانات جوجل، قد تُرسّخ التحيزات الجنسية من خلال التعلّم من سلوك المستخدمين. فعندما ينقر المستخدمون أو يبحثون بطرق تعكس التحيزات المجتمعية، تتعلم الخوارزميات توليد نتائج وإعلانات تُعزز هذه التحيزات.
رغم التقدم الكبير الذي أحرزه الذكاء الاصطناعي في مختلف المجالات، لا يزال التحيز يمثل تحديًا كبيرًا. تعكس أنظمة الذكاء الاصطناعي وتُرسّخ الأحكام المسبقة المجتمعية، بدءًا من التحيز الجنسي في توليد اللغة وصولًا إلى الصور النمطية العرقية والجنسية في توليد الصور. يتطلب التصدي لتحيز الذكاء الاصطناعي نهجًا متعدد الأوجه يشمل التدقيق الدقيق للبيانات وتعديلات الخوارزميات. من خلال هذه الجهود فقط، يمكن للذكاء الاصطناعي أن يصبح أداة محايدة وغير متحيزة تعود بالنفع على الجميع.
أذكى العقول في عالم العملات الرقمية يتابعون نشرتنا الإخبارية بالفعل. هل ترغب بالانضمام إليهم؟ انضم إليهم.
تنويه: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanأي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtronمستقلdent و/أو استشارة مختص مؤهل قبل اتخاذ أي قرار استثماري.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)
















