يقود تحالف من الدول، بقيادة الولايات المتحدة، جهوداً حثيثة لإصدار قرار في الأمم المتحدة يهدف إلى تعزيز أنظمة الذكاء الاصطناعي الآمنة والموثوقة على مستوى العالم. ويسعى هذا القرار، الذي قُدِّم إلى الجمعية العامة للأمم المتحدة، إلى وضع نهج موحد لتطوير وتنظيم تقنيات الذكاء الاصطناعي .
مبادرة عالمية من أجل ذكاء اصطناعي آمن وجدير بالثقة
يؤكد البيان المشترك الصادر عن الولايات المتحدة و54 دولة أخرى على الإمكانات التحويلية للذكاء الاصطناعي في تشكيل الاقتصادات والمجتمعات والتنمية العالمية. ويشدد القرار على أهمية ضمان استفادة الدول، على اختلاف مستويات تنميتها، من مزايا الذكاء الاصطناعي. ويدعو الدول الأعضاء إلى إعطاء الأولوية لتعزيز أنظمة ذكاء اصطناعي آمنة وموثوقة لمعالجة التحديات العالمية الملحة، مثل الفقر والرعاية الصحية والأمن الغذائي وتغير المناخ والطاقة والتعليم.
يدعو القرار إلى رؤية مشتركة للذكاء الاصطناعي تتمحور حول الإنسان، وتتسم بالموثوقية، وقابلية التفسير، والأخلاقية، والشمولية، والحفاظ على الخصوصية، والمسؤولية، مع التركيز على التنمية المستدامة. ويؤكد على احترام وحماية حقوق الإنسان والقانون الدولي في تطوير ونشر تقنيات الذكاء الاصطناعي.
أشادت ليندا توماس-غرينفيلد، سفيرة الولايات المتحدة لدى الأمم المتحدة، بالقرار ووصفته بأنه جهد تاريخي نحو إرساء توافق عالمي بشأن الذكاء الاصطناعي. وفي حال اعتماده، سيمثل هذا القرار أول مبادرة مستقلة في الأمم المتحدة مخصصة لمعالجة التحديات والفرص التي يتيحها الذكاء الاصطناعي.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي يضعdent للتنظيم
تزامنًا مع مبادرة قرار الأمم المتحدة، وضع الاتحاد الأوروبي اللمسات الأخيرة على قانون الذكاء الاصطناعي الذي طال انتظاره، وذلك بعد مفاوضات مكثفة منذ إنشائه في عام 2021. ويهدف قانون الذكاء الاصطناعي، الذي تم اعتماده في تصويت حاسم، إلى وضع تنظيم شامل لحكم تقنيات الذكاء الاصطناعي داخل الاتحاد الأوروبي.
يُقدّم قانون الذكاء الاصطناعي نهجًا قائمًا على المخاطر لتنظيم الذكاء الاصطناعي، حيث يصنف تقنيات الذكاء الاصطناعي بناءً على المخاطر المحتملة. وستخضع تطبيقات الذكاء الاصطناعي عالية المخاطر لأنظمة صارمة للحد من الأضرار المحتملة، بينما سيتم حظر استخدامات معينة للذكاء الاصطناعي، مثل أنظمة التقييم الاجتماعي، بشكل كامل.
للاتحاد الأوروبي إلى تحقيق التوازن بين تسخير إمكانات الذكاء الاصطناعي لتحقيق منفعة مجتمعية، والحماية من إساءة استخدامه. ومن خلال فرض قواعد صارمة على أنظمة الذكاء الاصطناعي عالية المخاطر، وحظر تطبيقات معينة، يهدف التشريع إلى تعزيز الاستخدام المسؤول والأخلاقي لتقنيات الذكاء الاصطناعي.
تعكس الجهود المتوازية التي تبذلها الأمم المتحدة والاتحاد الأوروبي إدراكاً متزايداً لضرورة التعاون الدولي في إدارة الذكاء الاصطناعي. ومع التطور السريع لتقنيات الذكاء الاصطناعي، تبرز الحاجة المُلحة إلى عمل جماعي لمواجهة التحديات والفرص الناشئة.
يمثل طرح قرار للأمم المتحدة يدعو إلى تنظيم أنظمة الذكاء الاصطناعي، واعتماد قانون الذكاء الاصطناعي في الاتحاد الأوروبي، محطتين هامتين في الحوكمة العالمية للذكاء الاصطناعي. وتؤكد هذه المبادرات على أهمية إعطاء الأولوية للاعتبارات الأخلاقية وحقوق الإنسان والتعاون الدولي في صياغة مستقبل تطوير ونشر تقنيات الذكاء الاصطناعي. ويهدف المجتمع الدولي، من خلال تعزيز إطار عمل تعاوني وتنظيمي، إلى تسخير إمكانات الذكاء الاصطناعي مع الحد من مخاطره بما يعود بالنفع على المجتمع ككل.

