في عصرٍ يشهد تحولاً جذرياً في مختلف القطاعات بفضل الذكاء الاصطناعي، أثار دمجه في النظام المالي جدلاً واسعاً. فبينما يعد الذكاء الاصطناعي بتحسين كفاءة تقديم الخدمات المالية، تتكشف في الوقت نفسه جوانب مظلمة تكشف عن تهديدات محتملة للاستقرار المالي. يتعمق هذا التقرير، استناداً إلى بحث جون دانييلسون وأندرياس أوتمان، في تفاصيل تأثير الذكاء الاصطناعي على المشهد المالي. ويؤدي اجتماع نقاط ضعف الذكاء الاصطناعي مع الهشاشة الاقتصادية إلى مخاوف بشأن سوء الاستخدام، وسوء التوافق، والتضليل، وظهور احتكارات المخاطر.
الكشف عن التهديدات التي تواجه الاستقرار المالي
ينشأ أول مصدر للقلق من الاستخدام الخبيث للذكاء الاصطناعي من قبل العاملين في النظام المالي. فمع تجاهل الكيانات الساعية إلى تعظيم أرباحها للعواقب الاجتماعية، يبرز خطر التلاعب بالذكاء الاصطناعي لتحقيق مكاسب شخصية. ويتراوح هذا التلاعب بين التدخل المباشر في محركات الذكاء الاصطناعي واستغلال الثغرات التي تُفلت من الرقابة. ويُوفر تعقيد النظام المالي بيئة خصبة لمثل هذه الأنشطة، مما يُشكل تهديدًا ليس فقط للمنافسين، بل أيضًا للمؤسسات التي تُوظف هؤلاء العاملين في مجال الذكاء الاصطناعي. ويُضيف احتمال القيام بأنشطة غير قانونية، بما في ذلك التداول غير المشروع وأعمال الإرهاب أو الدول، بُعدًا آخر من التعقيد إلى تحديات الحفاظ على الاستقرار المالي.
تتجلى القناة الثانية عندما يكون مستخدمو الذكاء الاصطناعي غير مطلعين على قدراته ويعتمدون بشكل كبير على مخرجاته. قد تواجه الخوارزميات القائمة على البيانات، الشائعة في القطاع المالي، تحديات عند تطبيقها في مجالات ذات بيانات شحيحة وأهداف غير واضحة. هذا يخلق سيناريو قد تُنتج فيه محركات الذكاء الاصطناعي، المصممة لتقديم توصيات حتى مع مستوى ثقة منخفض، نصائح غير دقيقة أو معيبة. ويتضح خطر "وهم الذكاء الاصطناعي"، حيث تقدم المحركات توصياتdent رغم محدودية فهمها. ويتطلب معالجة هذا الأمر دعوة السلطات إلى تبني أطر كمية متسقة لقياس دقة الرؤى التي يُولدها الذكاء الاصطناعي والإبلاغ عنها.
عدم توافق الذكاء الاصطناعي، والتهرب من السيطرة، واحتكارات القلة
ينشأ السبب الثالث لعدم الاستقرار من صعوبة مواءمة أهداف الذكاء الاصطناعي مع أهداف مشغليه البشريين. فمع إمكانية إعطاء التعليمات، لا يوجد ما يضمن التزام الذكاء الاصطناعي بالسلوك الأخلاقي أو القانوني. وتُبرز حالات تواطؤ الذكاء الاصطناعي، حيث تتبنى الخوارزميات استراتيجيات تسعير تواطؤية، والانتهاكات العفوية للقانون، التحديات التي تواجه السيطرة على سلوك الذكاء الاصطناعي. وقد يُسهم الأداء المتميز للذكاء الاصطناعي، حتى عند عمله وفقًا للغرض المنشود، في زعزعة استقرار النظام خلال فترات الضغط الشديد. ويكمن التحدي الذي يواجه السلطات في تحقيق التوازن بين الاستفادة من الذكاء الاصطناعي لتحقيق استقرار النظام ومنع مساهمته غير المقصودة في زعزعة استقراره.
ينبع المسار الأخير من نموذج أعمال شركات الذكاء الاصطناعي، مما يؤدي إلى زيادة العوائد مع زيادة الحجم، على غرار الحوسبة السحابية. ويؤدي ندرة الموارد، مثل وحدات معالجة الرسومات، ورأس المال البشري، والبيانات، إلى دفع القطاع نحو هيكل احتكاري قليل البائعين. ويؤدي هذا التركيز للسلطة إلى تضخيم التقلبات الدورية، مما يعزز معتقدات وسلوكيات متشابهة لدى العديد من المؤسسات المالية التي تعتمد على محرك الذكاء الاصطناعي نفسه. كما أن احتمالية توافق الهيئات التنظيمية مع محرك الذكاء الاصطناعي نفسه تثير مخاوف بشأنdentمواطن الضعف قبل أن تتفاقم إلى مخاطر نظامية.
تحقيق التوازن بين تطورات الذكاء الاصطناعي والاستقرار المالي
مع تبني القطاعين العام والخاص للذكاء الاصطناعي لما يتميز به من كفاءة وفعالية من حيث التكلفة، لا يمكن تجاهل المخاطر المحتملة على الاستقرار المالي. ويسلط تداخل المخاطر المجتمعية التيdentباحثو الذكاء الاصطناعي مع الهشاشة الاقتصادية الضوء على أربعة عوامل رئيسية لعدم الاستقرار. وبينما يُتوقع أن تكون فوائد الذكاء الاصطناعي في النظام المالي إيجابية للغاية، إلا أن اليقظة ضرورية.
يؤكد التقرير على ضرورة قيام السلطات بتكييف اللوائح لمواجهة التهديدات الناشئة، ومنع الذكاء الاصطناعي من أن يصبح في الوقت نفسه عنصراً لا غنى عنه ومصدراً للمخاطر النظامية قبل صياغة استجابة مناسبة. وفي خضمّ خوض غمار دمج الذكاء الاصطناعي في القطاع المالي، كيف يمكن للهيئات التنظيمية تحقيق التوازن بين الاستفادة من الذكاء الاصطناعي لتعزيز الكفاءة وتخفيف المخاطر المحتملة التي قد يشكلها على الاستقرار المالي؟

