أعرب مكتب محاسبة الحكومة الأمريكية (GAO) في تقرير حديث عن مخاوفه بشأن عدم استعداد حكومة الولايات المتحدة لتبني الذكاء الاصطناعي ووضع معايير شاملة لاستخدامه. ويسلط التقرير الضوء على النمو السريع لتبني الذكاء الاصطناعي داخل الوكالات الحكومية، ولكنه يؤكد غياب خارطة طريق ومعايير واضحة، الأمر الذي قد يشكل مخاطر أمنية كبيرة.
تزايد اعتماد الذكاء الاصطناعي في مختلف الوكالات الحكومية
يمثل التقرير الشامل الصادر عن مكتب المحاسبة الحكومي، والمؤلف من 96 صفحة، جهداً هاماً لتوثيق الدور المتنامي للذكاء الاصطناعي والتعلم الآلي في الوكالات الحكومية غير العسكرية. ويكشف التقرير أن الذكاء الاصطناعي يُستخدم حالياً في 228 مجالاً مختلفاً في مختلف قطاعات الحكومة الفيدرالية، حيث ظهر ما يقرب من 50% من هذه التطبيقات خلال العام الماضي وحده. وترتبط غالبية هذه الاستخدامات، أي حوالي 70%، بالبحث العلمي أو تهدف إلى تحسين الإدارة الداخلية للوكالات.
تجدر الإشارة إلى أنه على الرغم من أن التقرير يسرد 71 حالة استخدام مختلفة للذكاء الاصطناعي، إلا أن 10 منها فقط تم الكشف عنها علنًا. ومن الأمثلة على ذلك استخدام وزارة التجارة الأمريكية للذكاء الاصطناعي في tracحرائق الغابات، وإحصاء أعداد الحيوانات البرية آليًا، ومراقبة ناسا للنشاط البركاني العالمي باستخدام الذكاء الاصطناعي. كما تستخدم وزارة الأمن الداخلي الأمريكية الذكاء الاصطناعيdentالأنشطة الحدودية ذات الأهمية من خلال تحليل بيانات الكاميرات والرادار.
مع ذلك، يكشف التقرير أن العديد من تطبيقات الذكاء الاصطناعي لا تزال سرية، حيث لم تفصح الوكالات الفيدرالية إلا عن 70% فقط من إجمالي 1241 حالة استخدام نشطة ومخطط لها للذكاء الاصطناعي. وقد صُنّف أكثر من 350 استخدامًا تقنيًا على أنها حساسة، وبالتالي حُجبت عن النشر العام. وتثير هذه السرية، التيdent في وكالات مثل وزارة الخارجية، مخاوف بشأن الشفافية والرقابة في تطبيقات الذكاء الاصطناعي.
أعرب مكتب المحاسبة الحكومي عن قلقه إزاء غياب معايير وسياسات الذكاء الاصطناعي
في حين تتزايد وتيرة تبني الوكالات الحكومية للذكاء الاصطناعي في تطبيقات متنوعة، يؤكد تقرير مكتب المحاسبة الحكومي على الحاجة الماسة إلى سياسات موحدة لتوجيه عملية اقتناء واستخدام تكنولوجيا الذكاء الاصطناعي من القطاع الخاص بشكل مسؤول. ويُشكل غياب هذه التوجيهات الواضحة مخاطر محتملة على الأمن القومي ورفاهية المواطنين الأمريكيين.
يشير التقرير إلى أن الوكالات الفيدرالية تضع سياسات دون توجيهات متسقة، مما قد يؤدي إلى ممارسات لا تتوافق مع أفضل الممارسات. ولا يعيق هذا الوضع فعالية تطبيق الذكاء الاصطناعي فحسب، بل يثير أيضاً مخاوف بشأن عواقبه على الرفاه والأمن القومي.
أبرزت هيئة المحاسبة الحكومية (GAO) مشكلةً هامةً تتمثل في تأخر مكتب الإدارة والميزانية (OMB) في إصدار التوجيهات. كان من المتوقع أن يقدم المكتب مسودة التوجيهات للوكالات بحلول سبتمبر 2021، وفقًا لما ينص عليه قانون اتحادي صدر عام 2020 بشأن استخدام الذكاء الاصطناعي في الحكومة. إلا أن هذه التوجيهات لم تُنشر إلا في نوفمبر 2023، أي بعد الموعد النهائي بأكثر من عامين. وقد أعاق هذا التأخير وضع سياسات متماسكة للذكاء الاصطناعي في جميع الوكالات الاتحادية.
دور الذكاء الاصطناعي في إنفاذ القانون ومخاوف الخصوصية
في سياق متصل، أعرب مكتب المحاسبة الحكومي الأمريكي (GAO) في سبتمبر الماضي عن مخاوفه بشأن استخدام الذكاء الاصطناعي، وتحديدًا تقنية التعرف على الوجوه، من قبل مسؤولي إنفاذ القانون. وكشف التقرير عن إجراء آلاف عمليات البحث باستخدام تقنية التعرف على الوجوه دون تدريب كافٍ بين عامي 2019 و2022، مما قد يؤدي إلى اعتقالات خاطئة نتيجة خطأ فيdentالهوية. وتؤكد هذه المسألة على أهمية الاستخدام المسؤول للذكاء الاصطناعي، والحاجة إلى سياسات واضحة ورقابة فعّالة.
يُشكّل تقرير مكتب المحاسبة الحكومي الأمريكي جرس إنذار بالغ الأهمية للحكومة الأمريكية، إذ يُسلّط الضوء على التوسع السريع في استخدام الذكاء الاصطناعي داخل الوكالات الحكومية، وعلى غياب معايير وسياسات شاملة تُنظّم استخدامه. فبينما يمتلك الذكاء الاصطناعي إمكانات هائلة لتحسين العمليات والخدمات الحكومية، يُشكّل غيابُ توجيهات واضحة مخاطرَ جسيمة على الأمن والخصوصية. ويُفاقم تأخير الحكومة في إصدار التوجيهات الأساسية الوضعَ سوءًا. ومع استمرار الذكاء الاصطناعي في لعب دورٍ متزايد الأهمية في المجتمع، يُصبح من الضروري معالجة هذه المخاوف ووضع أُطر حوكمة متينة.

