في إحدى مبادراتها الرئيسية لتحفيز اعتماد تقنيات الذكاء الاصطناعي من قبل الحكومة في الولايات المتحدة بنهج مسؤول، فرض البيت الأبيض ضرورة إجراء متحيزة على أدوات الذكاء الاصطناعي المستخدمة في جميع الوكالات الحكومية.
يمثل الأمر التنفيذي، الصادر من خلال مكتب الإدارة والميزانية، أحد أهم برامج السياسة العامة لإدارة بايدن المصممة لاحتواء أقل قدر ممكن من المخاطر التي قد تظهر، بما في ذلك التمييز، إلى جانب انتهاكات الخصوصية.
تستعد الوكالات الفيدرالية للإشراف والمساءلة بشأن الذكاء الاصطناعي
كما أُعلن في السياسة الحكومية الشاملة، ستعمل الوكالات الفيدرالية على تطوير أنظمة تشغيليةtronتتوافق مع حقوق الإنسان وسلامته. ومن المقرر تطبيق هذه الأنظمة بحلول الأول من ديسمبر، حين يُطبّق الذكاء الاصطناعي بطريقة تُمكنه من التأثير على حياة الناس.
تهدف هذه التدابير تحديدًا إلى إزالة الفوارق، وانتهاك الخصوصية، والاختلافات بين القطاعات المختلفة، بما في ذلك الأمن في قطاعات النقل والرعاية الصحية وتقديم الخدمات. وينبغي تعيين رؤساء لوحدات الذكاء الاصطناعي أو مكافحة الجريمة وإنفاذ القانون، بالإضافة إلى تدابير أخرى، لضمان الرقابة
للإشراف على كيفية تنفيذ توجيهات مكتب الإدارة والميزانية بشأن الذكاء الاصطناعي، ولتنسيق استخدامها في مختلف المكاتب، سيتم تعيين مسؤولين رئيسيين عن الذكاء الاصطناعي. وسيشارك هؤلاء المسؤولون في وضع وضمان شفافية ومساءلة عمليات نشر الذكاء الاصطناعي داخل الحكومة الفيدرالية.
أكدت نائبةdent كامالا هاريس على نية هذه السياسات المحلية أن تكون نموذجًا للعمل العالمي، مشددةً على أهمية إعطاء الأولوية للمصلحة العامة في استخدام الذكاء الاصطناعي. وتعتزم الإدارة توظيف ما لا يقل عن 100 موظف متخصص في الذكاء الاصطناعي بحلول الصيف، مما يُبرز التزامها بهذه المبادرة.
اختبار صارم للأنظمة عالية المخاطر
أوضح مسؤولون كبار في الإدارة أن الأنظمة عالية المخاطر ستخضع لاختبارات دقيقةdentالتحيزات والمخاطر المحتملة والتخفيف من حدتها. ويؤكد هذا النهج الاستباقي التزام الإدارة بضمان الاستخدام المسؤول لتكنولوجيا الذكاء الاصطناعي في العمليات الحكومية.
بموجب المبادئ التوجيهية الجديدة، يمكن للأمريكيين طلب التعويضات إذا اعتقدوا أن الأنظمة أدت إلى معلومات خاطئة أو قرارات تؤثر عليهم.
يتعين على الوكالات الفيدرالية نشر قائمة بالأنظمة وتقييمات المخاطر واستراتيجيات الإدارة. ويجوز منح استثناءات للبرامج التي لا تتوافق مع قواعد الإدارة، ولكن يجب تقديم مبرر لذلك، بما يعزز الشفافية والمساءلة في نشر الذكاء الاصطناعي.
التحديات والاتجاهات المستقبلية
ألكسندرا ريف جيفنز، رئيسة dent مركز الديمقراطية والتكنولوجيا، بالتوجيهات باعتبارها خطوة مهمة نحو ضمان الاستخدام المسؤول للذكاء الاصطناعي داخل الوكالات الفيدرالية.
أكد جيفنز على أهمية وجود عمليات صارمة لتقييم التأثير المحتمل للتقنيات الجديدة على الأفراد والمجتمعات.
رغم أن الوكالات الفيدرالية تستخدم تقنية الذكاء الاصطناعي منذ سنوات، إلا أن تنظيمها على نطاق أوسع لا يزال متعثراً في الكونغرس. ونتيجة لذلك، تستغل إدارة بايدن مكانة الحكومة كعميل رئيسي للتكنولوجيا لوضع ضمانات وتعزيز تبني الذكاء الاصطناعي بشكل مسؤول.
على الرغم من الإجراءات الاستباقية التي اتخذتها الإدارة، لا تزال هناك تحديات، لا سيما فيما يتعلق باستمرار التحيزات في أنظمة الذكاء الاصطناعي. وتُبرز حالات التحيز العنصري وعدم الدقة في عملية صنع القرار التي يقودها الذكاء الاصطناعي الحاجة إلى اليقظة والرقابة المستمرة في نشر الذكاء الاصطناعي.
يمثل تفويض البيت الأبيض بإجراء اختبارات التحيز والإشراف على استخدام الذكاء الاصطناعي في الوكالات الفيدرالية خطوة هامة نحو ضمان تبني تقنية الذكاء الاصطناعي بشكل مسؤول وأخلاقي. ومن خلال تطبيق ضمانات ملموسة، وتعزيز الشفافية، ودعم المساءلة العامة، تسعى الإدارة إلى معالجة المخاطر المحتملة مع تسخير الإمكانات التحويلية للذكاء الاصطناعي لصالح المجتمع.

