في محاولة لتوضيح جوانب الذكاء الاصطناعي في مجال الرعاية الصحية، والذي غالباً ما يكتنفه الغموض، وضعت وزارة الصحة والخدمات الإنسانية الأمريكية إجراءً محورياً، وهو قاعدة شفافية الذكاء الاصطناعي (HTI-1). وبينما لاقت هذه القاعدة استحساناً لمحاولتها تسليط الضوء على تعقيدات نماذج الذكاء الاصطناعي التنبؤية، يحذر الخبراء من أنها، رغم فوائدها، قد لا تقدم حلاً شاملاً للتحديات المتأصلة في هذه التقنية سريعة التطور.
ينبع قانون شفافية الذكاء الاصطناعي من إدراك النقص الحاد في الشفافية في سوق الذكاء الاصطناعي للرعاية الصحية، لا سيما فيما يتعلق بالنماذج التنبؤية. ويؤكد جيف سميث، نائب مدير قسم الاعتماد والاختبار في مكتب المنسق الوطني لتكنولوجيا المعلومات الصحية التابع لوزارة الصحة والخدمات الإنسانية الأمريكية، على الأهمية المُلحة لهذه المبادرة. ويسعى القانون إلى معالجة ندرة المعلومات المتعلقة بتصميم وتطوير واختبار وتدريب وتقييم نماذج الذكاء الاصطناعي التنبؤية، الأمر الذي أدى إلى أضرار موثقة أثرت على ملايين الأمريكيين.
تسليط الضوء على مبادئ القاعدة
بموجب قاعدة شفافية الذكاء الاصطناعي، أقرّ مكتب المنسق الوطني لتكنولوجيا المعلومات الصحية فئتين رئيسيتين من السياسات. أولاً، تنص القاعدة على ضرورة توفير معلومات شاملة حول كيفية تصميم وتطوير وتدريب وتقييم تدخلات دعم القرار التنبؤية، وكيفية استخدامها. ويمثل هذا خطوة حاسمة نحو تمكين المستخدمين بفهم أعمق لخوارزميات الذكاء الاصطناعي التي يستخدمونها.
كما ينصّ القانون على أن إدارة المخاطر تلعب دورًا محوريًا في نشر أنظمة الذكاء الاصطناعي التنبؤية، وأن الحوكمة يجب أن توجه تصميمها وتنفيذها. ويهدف القانون، من خلال وضع إطار عمل يشمل الإفصاح عن المعلومات وإدارة المخاطر، إلى إنشاء معيار أساسي لتقييم جودة خوارزميات الذكاء الاصطناعي على المستوى الوطني.
يؤكد ماندر كارهادي، رئيس قسم البيانات والتحليلات في شركة أفالير هيلث، أن الغاية من بعض نماذج الذكاء الاصطناعي ليست واضحة دائمًا. فسواء كان الهدف هو التشخيص، أو توفير التكاليف، أو أي هدف آخر، فإن هذا الغموض يطرح تحديات محتملة. وتبرزtronالصحية الإلكترونية كمجال عرضة لهذه التحديات، حيث تثير ميزات الذكاء الاصطناعي، مثل ميزة "الإكمال التلقائي" من أوراكل، مخاوف بشأن الدقة وإضافة بيانات غير مقصودة.
يقارن جيف سميث بين قاعدة شفافية الذكاء الاصطناعي وملصق المعلومات الغذائية على الأطعمة، مسلطًا الضوء على دورها في توفير معلومات أساسية. لكن ميغان أوكونور، الخبيرة القانونية من شركة كوارلز آند برادي، تعترض على هذا التشبيه، مشيرةً إلى الطبيعة الذاتية وغير القابلة للقياس للمعلومات المُفصَح عنها. وهذا يثير تساؤلات حول كيفية تواصل مطوري تكنولوجيا المعلومات الصحية بشأن هذه المعلومات، وكيفية دمج مقدمي الخدمات لها في تحليل المخاطر لديهم.
تقييم نطاق قاعدة شفافية الذكاء الاصطناعي
يقدم نيام ياراغي، وهو زميل أول غيرdent في معهد بروكينغز، وجهة نظر نقدية. فبينما يُقرّ بالهدف النبيل للقاعدة المتمثل في ضمان العدالة في مجال الذكاء الاصطناعي، إلا أنه يعتبرها ردة فعل إلى حد ما. ويدعو ياراغي إلى سياسات تُعزز التقدم السريع في مجال الذكاء الاصطناعي وتُعالج العوائق مثل عزل البيانات في نظام الرعاية الصحية.
في خضمّ تعقيدات الشفافية في مجال الذكاء الاصطناعي، يُمثّل هذا القانون خطوةً هامةً إلى الأمام. ومع ذلك، في ظلّ سعي قطاع الرعاية الصحية للتكيّف مع الطبيعة المتغيّرة للذكاء الاصطناعي، تبقى التساؤلات قائمة: هل تكفي الشفافية وحدها لضمان الاستخدام المسؤول والعادل للذكاء الاصطناعي في الرعاية الصحية ؟ هل توجد قيودٌ جوهريةٌ على قدرة هذا القانون على مواجهة التحديات المتغيرة التي يفرضها التداخل بين التكنولوجيا والرعاية الصحية؟ وبينما يتوخّى أصحاب المصلحة الحذر في هذا المجال المتغيّر، يبقى السعي لتحقيق التوازن بين الابتكار والمساءلة أمراً بالغ الأهمية.

