لقد اتخذ الاتحاد الأوروبي خطوة مهمة نحو تنظيم مجال الذكاء الاصطناعي سريع التطور من خلال منح الموافقة النهائية على قانون الذكاء الاصطناعي، وهو تشريع رائد يهدف إلى وضع إطار عمل شامل لتطوير واستخدام أنظمة الذكاء الاصطناعي داخل التكتل المكون من 27 دولة.
تمت الموافقة بأغلبية ساحقة من قبل أعضاء البرلمان الأوروبي على قانون الذكاء الاصطناعي، الذي كان قيد الإعداد لمدة خمس سنوات، مما يمثل لحظة محورية في السعي لضمان تطوير ونشر تكنولوجيا الذكاء الاصطناعي بطريقة مسؤولة ومتمحورة حول الإنسان.
علامة عالمية
من المتوقع أن يُشكّل قانون الذكاء الاصطناعي نموذجًا عالميًا يُحتذى به للحكومات الأخرى التي تواجه تحدي تنظيم تكنولوجيا الذكاء الاصطناعي. وقد أكّد دراغوس تودوراش، وهو مشرّع روماني شارك في قيادة مفاوضات البرلمان بشأن مشروع القانون، على أهمية هذا التشريع، قائلاً: "لقد وجّه قانون الذكاء الاصطناعي مستقبل الذكاء الاصطناعي نحو مسار يتمحور حول الإنسان، حيث يكون الإنسان هو المتحكّم في التكنولوجيا، وحيث تُساعدنا التكنولوجيا على الاستفادة من الاكتشافات الجديدة، والنمو الاقتصادي، والتقدّم المجتمعي، وإطلاق العنان للإمكانات البشرية"
نهج قائم على المخاطر
يتبنى قانون الذكاء الاصطناعي نهجًا قائمًا على المخاطر لتنظيم أنظمة الذكاء الاصطناعي، حيث يزداد مستوى التدقيق بما يتناسب مع المخاطر المحتملة التي تشكلها هذه التقنية. أما الأنظمة منخفضة المخاطر، مثل أنظمة توصية المحتوى أو مرشحات البريد العشوائي، فستخضع لقواعد أقل صرامة، تقتصر في المقام الأول على اشتراط الشفافية بشأن استخدام الذكاء الاصطناعي.
من ناحية أخرى، ستواجه تطبيقات الذكاء الاصطناعي عالية المخاطر، بما في ذلك الأجهزة الطبية وأنظمة البنية التحتية الحيوية، متطلبات أكثر صرامة، مثل استخدام بيانات عالية الجودة وتوفير معلومات واضحة للمستخدمين.
يحظر التشريع الجديد استخدامات معينة للذكاء الاصطناعي تُعتبر مُشكلة خطراً غير مقبول. وتشمل هذه الاستخدامات أنظمة التقييم الاجتماعي التي تُنظم السلوك البشري، وبعض أنواع الشرطة التنبؤية، وأنظمة التعرف على المشاعر في المدارس وأماكن العمل. إضافةً إلى ذلك، يحظر القانون على جهات إنفاذ القانون استخدام أنظمة "dentالبيومتري" عن بُعد المدعومة بالذكاء الاصطناعي في الأماكن العامة، باستثناء حالات الجرائم الخطيرة كالاختطاف أو الإرهاب.
تتناول اللائحة أيضًا الارتفاع المذهل في نماذج الذكاء الاصطناعي للأغراض العامة، مثل ChatGPT من OpenAI، من خلال وضع أحكام للإشراف عليها. سيُطلب من مطوري هذه النماذج تقديم ملخصات مفصلة للبيانات المستخدمة في التدريب، واتباع قانون حقوق النشر في الاتحاد الأوروبي، وتصنيف مقاطع التزييف العميق المُولّدة بواسطة الذكاء الاصطناعي على أنها مُعدّلة بشكل مصطنع.
معالجة المخاطر النظامية
إدراكًا لإمكانية أن تُشكّل نماذج الذكاء الاصطناعي القوية "مخاطر نظامية"، يفرض قانون الذكاء الاصطناعي مزيدًا من التدقيق على أكبر الأنظمة وأكثرها تطورًا، بما في ذلك GPT4 من OpenAI وGemini من Google. سيتعين على الشركات التي تُقدّم هذه الأنظمة تقييم المخاطر والتخفيف منdent، والإبلاغ عن الحوادث الخطيرة، وتطبيق تدابير الأمن السيبراني، والإفصاح عن بيانات استهلاك الطاقة.
تنبع مخاوف الاتحاد الأوروبي من احتمال تسبب أنظمة الذكاء الاصطناعي القوية هذه فيdentخطيرة، أو إساءة استخدامها في الهجمات الإلكترونية، أو نشر تحيزات ضارة عبر العديد من التطبيقات، مما يؤثر على عدد كبير من الناس.
بينما يهدف قانون الذكاء الاصطناعي إلى وضع إطار عمل لتطوير الذكاء الاصطناعي بشكل مسؤول، فإنه يسعى أيضاً إلى تعزيز الابتكار داخل الاتحاد الأوروبي. وقد أيدت شركات التكنولوجيا الكبرى عموماً الحاجة إلى التنظيم، مع ممارسة ضغوط لضمان أن تعمل القواعد لصالحها.
أثار سام ألتمان، الرئيس التنفيذي لشركة OpenAI، ضجة في البداية باقتراحه أن الشركة قد تنسحب من أوروبا إذا لم تتمكن من الامتثال لقانون الذكاء الاصطناعي، لكنهtracلاحقًا، مصرحًا بأنه لا توجد خطط للمغادرة.
في حين يتعامل العالم مع التقدم السريع لتكنولوجيا الذكاء الاصطناعي، يمثل قانون الذكاء الاصطناعي للاتحاد الأوروبي جهدًا رائدًا لإيجاد التوازن بين تعزيز الابتكار ومعالجة المخاطر والتحديات المحتملة التي تفرضها هذه التكنولوجيا التحويلية.

