في خطوة هامة نحو ضمان التطوير الآمن والمسؤول للذكاء الاصطناعي، تعاونت الولايات المتحدة والمملكة المتحدة وسنغافورة و15 دولة أخرى لإطلاق أول اتفاقية دولية شاملة تركز على التطوير المسؤول للذكاء الاصطناعي. وتُعد هذه المبادرة التاريخية، رغم أنها غير ملزمة، خطوة حاسمة في إعطاء الأولوية لتدابير الأمن في أنظمة الذكاء الاصطناعي منذ نشأتها.
جهد عالمي من أجل ذكاء اصطناعي مسؤول
يضم الاتفاق الدولي، الذي تم توضيحه في وثيقة من عشرين صفحة صدرت مؤخراً، ثمانية عشر دولة، من بينها الولايات المتحدة وسنغافورة والمملكة المتحدة وألمانيا وإيطاليا وجمهورية التشيك وإستونيا وبولندا وأستراليا وتشيلي وإسرائيل ونيجيريا. ورغم أنه غير ملزم، إلا أن هذا الاتفاق يؤكد الالتزام المشترك بتطوير ونشر أنظمة الذكاء الاصطناعي مع التركيز بشكل أساسي على حماية المستهلكين وعامة الجمهور من أي إساءة استخدام محتملة.
أكدت جين إيسترلي، مديرة وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية (CISA)، على أهمية هذا الاتفاق. فهو أول اتفاق من نوعه تُقر فيه دول متعددة مجتمعةً بضرورة إعطاء الأولوية للأمن خلال مرحلة تصميم أنظمة الذكاء الاصطناعي. وشددت إيسترلي على أن هذه المبادئ التوجيهية تتجاوز مجرد الميزات والمنافسة في السوق، مؤكدةً على أهمية الاعتبارات الأمنية.
إطار عمل يعالج القضايا الرئيسية
يتناول هذا الإطار الشامل قضايا حيوية تتعلق بمنع وقوع تقنية الذكاء الاصطناعي في الأيدي الخطأ. ويتضمن توصيات لإجراء اختبارات أمنية دقيقة قبل إطلاق نماذج الذكاء الاصطناعي، وتدابير لمراقبة أنظمة الذكاء الاصطناعي تحسباً لأي إساءة استخدام محتملة. كما يركز على حماية البيانات من التلاعب، والتحقق من التزام موردي البرامج بمعايير الأمان.
ومع ذلك، من الضروري ملاحظة أن الاتفاقية لا تتعمق في الجوانب الأكثر إثارة للجدل، مثل defiالاستخدامات المناسبة للذكاء الاصطناعي أو معالجة المخاوف بشأن أساليب جمع البيانات.
مبادرات عالمية للحد من مخاطر الذكاء الاصطناعي
تنضم هذه الاتفاقية الدولية إلى سلسلة من المبادرات العالمية الرامية إلى رسم مسار تطوير الذكاء الاصطناعي. وتُشير هذه المبادئ التوجيهية إلى إقرار جماعي بضرورة إعطاء الأولوية لاعتبارات السلامة في مجال الذكاء الاصطناعي.
في الشهر الماضي، اتفقت مجموعة الدول الصناعية السبع (G7) على مدونة سلوك للشركات التي تُطوّر أنظمة الذكاء الاصطناعي المتقدمة. تهدف هذه المدونة، المؤلفة من 11 بندًا، إلى تعزيز استخدام الذكاء الاصطناعي بشكل آمن وموثوق على مستوى العالم. وتعكس هذه المدونة رغبة الحكومات في التعاون للحد من مخاطر إساءة استخدام تقنية الذكاء الاصطناعي. كما تُشدد على ضرورة اتخاذ الشركات إجراءات فعّالةdentالمخاطر وتقييمها والتخفيف من آثارها طوال دورة حياة الذكاء الاصطناعي.
وبالمثل، أحرز الاتحاد الأوروبي تقدماً ملحوظاً بالتوصل إلى اتفاق مبكر بشأن قانون الذكاء الاصطناعي، الذي يُحتمل أن يصبح أول مجموعة قوانين شاملة في العالم تُنظم استخدام تقنية الذكاء الاصطناعي. وبموجب هذا القانون، يُلزم الشركات التي تستخدم أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT وMidjourney، بالكشف عن أي مواد محمية بحقوق الطبع والنشر تُستخدم في تطوير أنظمتها. ويجري حالياً التعاون بين المشرعين في الاتحاد الأوروبي والدول الأعضاء لوضع اللمسات الأخيرة على تفاصيل مشروع القانون. وتُصنف أدوات الذكاء الاصطناعي بناءً على مستوى المخاطر التي تُشكلها، بدءاً من منخفضة إلى محدودة، مروراً بالمرتفعة، وصولاً إلى غير المقبولة.
زخم عالمي لتنظيم الذكاء الاصطناعي
مع تزايد الزخم العالمي لتنظيم الذكاء الاصطناعي، تستعد مجموعة الدول السبع لوضع مدونة سلوك لأنظمة الذكاء الاصطناعي المتقدمة. ويؤكد هذا الاتفاق المرتقب بشأن الذكاء الاصطناعي، إلى جانب الاتفاق الدولي الذي تم التوصل إليه مؤخراً وجهود الاتحاد الأوروبي في تشريعات الذكاء الاصطناعي، على بذل جهد متضافر لمعالجة المشهد المتطور للذكاء الاصطناعي. ويبقى التركيز منصباً على ضرورة اتخاذ تدابير السلامة والتطوير المسؤول في قطاع الذكاء الاصطناعي.
يمثل الاتفاق الدولي لتطوير الذكاء الاصطناعي المسؤول لحظةً محوريةً في المشهد العالمي للذكاء الاصطناعي. ورغم أنه غير ملزم، إلا أنه يبعث برسالة واضحة مفادها أن الدول ملتزمة بإعطاء الأولوية لأمن أنظمة الذكاء الاصطناعي وحماية مصالح الجمهور. ومع استمرار تطور تكنولوجيا الذكاء الاصطناعي، تهدف هذه الجهود التعاونية إلى تحقيق التوازن بين تسخير فوائدها وتخفيف المخاطر المحتملة، بما يُسهم في نهاية المطاف في رسم مستقبل مسؤول للذكاء الاصطناعي.

