حظرت مايكروسوفت على قوات الشرطة في الولايات المتحدة الحصول على خدمات الذكاء الاصطناعي التوليدي التي تعمل على منصة Azure OpenAI Service. ويُعدّ هذا نهجًا جديدًا تمّ تناوله في بنود الخدمة المُحدّثة يوم الأربعاء، ويهدف إلى معالجة المعضلة الأخلاقية المتنامية التي تواجه استخدام الذكاء الاصطناعي في إنفاذ القانون.
تحديث السياسة يسلط الضوء على المخاوف الأخلاقية
تنص الشروط المعدلة صراحةً على أنه لا يجوز استخدام هذه التكاملات "من قبل أو لصالح" وكالات الشرطة في الولايات المتحدة. ويشمل هذا التقييد نماذج تحليل النصوص والكلام أيضاً، مما يؤكد مايكروسوفت على الاستخدام المسؤول للذكاء الاصطناعي. وكإجراء تنظيمي إضافي، أُضيف بند منفصل يحظر تحديداً استخدام تقنية التعرف على الوجه في الوقت الفعلي على كاميرات الهواتف المحمولة، بما في ذلك الكاميرات الشخصية وكاميرات السيارات، في البيئات غير الخاضعة للرقابة.
مايكروسوفت تمنع أقسام الشرطة الأمريكية من استخدام أداة الذكاء الاصطناعي الخاصة بالمؤسسات https://t.co/OxrFO5scO9
— تيك كرانش (@TechCrunch) 2 مايو 2024
قدdentسبب هذه التحركات في التطورات الأخيرة التي شهدها قطاع التكنولوجيا. فقد أعلنت شركة Axon، الشركة التقنية المعروفة والمتخصصة في المجالين العسكري والأمني، عن منتج يستخدم نموذج المُحلل اللفظي من OpenAI مع نموذج GPT-4 لتوليد النصوص، وذلك للمساعدة في تحليل الصوت الذي تسجله كاميرات الجسم. وقد تم التطرق إلى مشكلة المعلومات المُضللة المُولدة وتحيزها العنصري في بيانات التدريب، وذلك لتوضيح مخاوف بعض النقاد.
الآثار ومجالات التفسير
رغم أن السياسة المُحسّنة تُمثل موقفًا حاسمًا من مايكروسوفت، إلا أنها لا تزال قابلة للتأويل. يقتصر حظر خدمة Azure OpenAI على الشرطة الأمريكية فقط، بينما يستمر نشرها دوليًا. علاوة على ذلك، تقتصر القيود المفروضة على استخدام تقنية التعرف على الوجوه على استخدامها من قِبل وحدات إنفاذ القانون الأمريكية، باستثناء الكاميرات الثابتة في البيئات الخاضعة للرقابة.
تنسجم هذه المنهجية المتوازنة تمامًا مع استراتيجية مايكروسوفت الشاملة للذكاء الاصطناعي في مجالي إنفاذ القانون والدفاع. وفي الوقت نفسه، ورغم حظر بعض الاستخدامات، فقد بدأ التعاون بين OpenAI والوكالات الحكومية، ومن أبرزها البنتاغون، بالظهور تدريجيًا. وتشير هذه الشراكات إلى تغيير في موقف OpenAI، وكذلك مايكروسوفت التي تبحث عن تطبيقات الذكاء الاصطناعي في التقنيات العسكرية.
مشاركة الحكومة وديناميكيات الصناعة
اعتماد من مايكروسوفت من قبل الوكالات الحكومية، حيث تتضمن Azure Government أدوات إضافية للامتثال والإدارة مصممة خصيصًا لتطبيقات إنفاذ القانون. وستتولى كانديس لينغ، نائبة الرئيس الأولى dent مايكروسوفت الفيدرالي، مسؤولية الحصول على المزيد من الموافقات من وزارة الدفاع لخدمة Azure OpenAI، مما يُبرز مدى فائدة هذه المنصة في المهام العاجلة.
يُحتّم مجال أخلاقيات الذكاء الاصطناعي وتنظيمه المتغير باستمرار على شركات التكنولوجيا اتخاذ إجراءات مدروسة مسبقًا. ومن خلال قرارها بتجنب استخدام الذكاء الاصطناعي في إنفاذ القانون، تُظهر مايكروسوفت توجهًا أوسع في القطاع نحو تعزيز المساءلة والشفافية في توظيف الذكاء الاصطناعي. وخلال النقاشات الدائرة حول تنظيم الذكاء الاصطناعي، سيتعين على مزودي التكنولوجيا وصناع السياسات والجماعات الناشطة العمل معًا لحل القضايا المستجدة بطريقة أخلاقية.
يُعدّ قرار مايكروسوفت بمنع أقسام الشرطة في الولايات المتحدة من استخدام خدمة Azure OpenAI في سيناريوهات محددة دليلاً على النهج المدروس والمركز الذي تتبعه الشركة للتعامل مع المخاوف الأخلاقية المتعلقة بنشر الذكاء الاصطناعي. ويكشف هذا التعديل عن جدية واضعي السياسات والتعقيدات التي ينطوي عليها هذا التوازن. وبالنظر إلى تطور النقاشات الأخلاقية حول الذكاء الاصطناعي، ينبغي على جميع الأطراف المعنية المشاركة في حوار بنّاء لخلق نمو وتطوير مسؤول للذكاء الاصطناعي.

