تخيّل قاعة مجلس إدارة يكون فيها الذكاء الاصطناعي عضوًا مصوّتًا له التزامات ائتمانية، بدلًا من أن يكون متفرجًا. لهذه الفكرة تداعيات مهمة على مستقبل حوكمة الشركات. هذا هو المستقبل الموصوف في العمل الرائد "الأوصياء الاصطناعيون". ولمعالجة هذه العيوب، تقترح الدراسة نهجًا جديدًا: كيانات الذكاء الاصطناعي التي تتمتع بنفس مستوى الالتزام والرعاية الذي يتمتع به أعضاء مجلس الإدارة من البشر عند العمل كأوصياء.
مفهوم الوكلاء الاصطناعيين
في مجال حوكمة الشركات، لطالما كان البحث عن مديرينdent تمامًا أمرًا صعبًا. وتُعدّ القيود الزمنية وعمليات التدقيق الخارجية مثالين على الإصلاحات القائمة التي لم تصل بعد إلى مستوى الموضوعية التامة. ووفقًا للمقالة، يُقدّم الذكاء الاصطناعي حلاً خاصًا يتمثل في "الأوصياء الاصطناعيين". يُوسّع هذا النهج ويُحسّن مفهوم استخدام مُقدّمي خدمات مجلس الإدارة (BSPs) لإدارة وظائف مجلس الإدارة. تتمتّع هذه الأوصياء بالقدرة على توفير استقلالية حقيقية وتعزيز عمليات صنع القرار، على عكس مُقدّمي خدمات مجلس الإدارة، الذين يُقيّدهم التحيز البشري والقيود التكنولوجية.
قد يعمل الأمناء الاصطناعيون كوسطاء محايدين، مما يشجع على الانفتاح، وربما يُرسي قواعد حوكمة الشركات على الصعيد الدولي. ومع ذلك، يبقى سؤال جوهري بحاجة إلى إجابة: هل الذكاء الاصطناعي قادر حقًا على الوفاء بالالتزامات الصارمة للأمناء؟ أعرب أكاديميون قانونيون، مثل يوجين فولوك، عن مخاوفهم من أن يلعب الحكم الرحيم دورًا حاسمًا في هذا الموقف، وهو ما تُقر به الدراسة. مع ذلك، تُؤكد الدراسة أنه بدلًا من محاكاة القدرات البشرية بدقة، ينبغي أن يكون السؤال المطروح هو: هل يستطيع الذكاء الاصطناعي تحقيق أهداف المسؤولية الائتمانية؟
تشكيل مستقبل حوكمة الشركات
وفقًا للدراسة، يُمكن للأمناء الاصطناعيين العمل كمديرين خارجيين موضوعيين مع الوفاء بواجباتهم الائتمانية تجاه الشركة ومستثمريها. ومن المتوقع أن يُحقق العمل جنبًا إلى جنب مع نظرائهم من البشر نتائج أفضل؛ ومع ذلك، نظرًا لأن أمناء الذكاء الاصطناعي يعتمدون على الخوارزميات بطبيعتهم، فقد تختلف واجباتهم. تُسلّط المقالة الضوء على ضرورة المرونة مع الحفاظ على معايير سلوكية عالية، وتصف كيفية توسيع نطاق واجبات الرعاية والولاء لتشمل الأمناء الاصطناعيين.
مع ذلك، لا تتجنب الدراسة مناقشة أي عيوب محتملة. وتُجري تحليلاً شاملاً لقضايا مثل التحيز، ونقص الشفافية (مشكلة "الصندوق الأسود")، ومخاطر السلامة، واحتمالية سيطرة المدراء شديدي الذكاء على المحادثات. وللحد من هذه المخاطر، يقترح التقرير أطراً أخلاقية، وسياسات شفافية، ومعايير دقيقة لإجراءات اتخاذ القرارات المتعلقة بالذكاء الاصطناعي. وتُضيف هذه المحاضرة الكثير إلى المناقشات الحالية حول عدالة الخوارزميات في تطوير الذكاء الاصطناعي.
تُحذّر المقالة أيضًا من اعتبار الذكاء الاصطناعي مجرد أداة. الفكرة هي أن يكون المؤتمنين الاصطناعيون قادرين على إصدار أحكامهم بأنفسهم، متحررين من قيود نظام مُبرمج مسبقًا. ولحل قيود رأس المال الاجتماعي والقضايا الأخلاقية المعقدة، تُقدّم الدراسة نموذجًا تعاونيًا يتعاون فيه المؤتمنين البشريون والاصطناعيون مستفيدين من نقاط قوتهم. في هذا التعاون، تُعد المراقبة البشرية ضرورية لضمان تنفيذ أفضل التوصيات، وتخضع عملية صنع القرار بالذكاء الاصطناعي لمعايير أخلاقية صارمة.
التأثير على حوكمة الشركات في المستقبل
يتناول القسم الأخير من الورقة البحثية كيفية حوكمة الشركات مع تزايد تكامل الذكاء الاصطناعي. ويوصي بأطر تشريعية للحد من ظهور الوكلاء المعتمدين الاصطناعيين. ولا يقتصر هذا البحث على تحفيز الحوار الأكاديمي فحسب، بل يُمثل أيضًا دعوةً للمشرعين إلى العمل لتعديل القوانين الحالية وفتح المجال أمام التطبيق الأخلاقي للذكاء الاصطناعي في مجالس الإدارة. ويبقى السؤال قائمًا: هل نحن مستعدون لقبول الذكاء الاصطناعي شريكًا موثوقًا به في حوكمة الشركات؟

