تم تصعيد الحملة الرامية إلى دفع الحكومات للموافقة على حدود دولية ملزمة للحد من إساءة استخدام تكنولوجيا الذكاء الاصطناعي إلى مستوى الأمم المتحدة، حيث أصدر أكثر من 200 من كبار السياسيين والعلماء وقادة الفكر، بمن فيهم 10 فائزين بجائزة نوبل، تحذيراً بشأن مخاطر هذه التكنولوجيا.
يُطلق على البيان، الذي صدر يوم الاثنين في افتتاح الأسبوع رفيع المستوى للجمعية العامة للأمم المتحدة، اسم "النداء العالمي لوضع خطوط حمراء للذكاء الاصطناعي". ويؤكد البيان أن "المسار الحالي للذكاء الاصطناعي ينطوي على مخاطر غيرdent"، ويطالب الدول بالعمل على التوصل إلى اتفاق دولي بشأن قيود واضحة وقابلة للتحقق بحلول نهاية عام 2026.
الفائزون بجائزة نوبل يقودون نداءً في الأمم المتحدة.
وقد كشفت عن هذا النداء ماريا ريسا، الحائزة على جائزة نوبل للسلام والصحفية، التي استخدمت خطابها الافتتاحي لحث الحكومات على "منع المخاطر غير المقبولة عالميًا" defiما لا ينبغي السماح للذكاء الاصطناعي بفعله أبدًا.
يضمّ البيان الموقعين عليه حائزين على جوائز نوبل في الكيمياء والاقتصاد والسلام والفيزياء، إلى جانب مؤلفين مرموقين مثل ستيفن فراي ويوفال نوح هراري. كما وقّعت عليه أيضاًdent الأيرلندية السابقة ماري روبنسونdent الكولومبي السابق خوان مانويل سانتوس، الحائز أيضاً على جائزة نوبل للسلام.
كما أضاف جيفري هينتون ويوشوا بنجيو، المعروفان باسم "عرابو الذكاء الاصطناعي" والفائزان بجائزة تورينج، التي تعتبر على نطاق واسع جائزة نوبل في علوم الكمبيوتر، توقيعاتهما على البيان.
قال هاراري: "هذه نقطة تحول. يجب على البشر الاتفاق على خطوط حمراء واضحة للذكاء الاصطناعي قبل أن تعيد هذه التقنية تشكيل المجتمع بما يتجاوز فهمنا وتدمر أسس إنسانيتنا"
لطالما ركزت الجهود السابقة للتحذير من مخاطر الذكاء الاصطناعي على التزامات طوعية من الشركات والحكومات. ففي مارس/آذار 2023، دعا أكثر من ألف من رواد التكنولوجيا، بمن فيهم إيلون ماسك، إلى وقف تطوير أنظمة الذكاء الاصطناعي القوية. وبعد بضعة أشهر، وقّع مسؤولون تنفيذيون في مجال الذكاء الاصطناعي، مثل سام ألتمان من OpenAI من Google DeepMind، بيانًا موجزًا يُساوي بين المخاطر الوجودية للذكاء الاصطناعي ومخاطر الحرب النووية والأوبئة.
الذكاء الاصطناعي يثير المخاوف من المخاطر الوجودية والمجتمعية
في الأسبوع الماضي فقط، تورط الذكاء الاصطناعي في قضايا تتراوح بين انتحار مراهق وتقارير عن استخدامه في التلاعب بالنقاش العام.
الموقعون على البيان أن هذه المخاطر المباشرة قد تتضاءل قريباً أمام تهديدات أكبر. وقد حذر المعلقون من أن أنظمة الذكاء الاصطناعي المتقدمة قد تؤدي إلى بطالة جماعية، أو أوبئة مفتعلة، أو انتهاكات منهجيةmatic الإنسان إذا لم يتم كبح جماحها.
تتضمن بعض البنود المدرجة في قائمة الحظر حظر الأسلحة الفتاكة ذاتية التشغيل، ومنع أنظمة الذكاء الاصطناعي ذاتية التكاثر، وضمان عدم استخدام الذكاء الاصطناعي مطلقاً في الحرب النووية.
"من مصلحتنا المشتركة الحيوية منع الذكاء الاصطناعي من إلحاق أضرار جسيمة وربما لا يمكن إصلاحها بالبشرية، وعلينا أن نتصرف وفقًا لذلك." هذا ما قاله أحمد أوزومجو، المدير العام السابق لمنظمة حظر الأسلحة الكيميائية، التي فازت بجائزة نوبل للسلام عام 2013 تحت قيادته.
وقّعت أكثر من 60 منظمة من منظمات المجتمع المدني على الرسالة، بما في ذلك مركز الأبحاث "ديموس" البريطاني ومعهد بكين لسلامة الذكاء الاصطناعي وحوكمته. ويتولى تنسيق هذا الجهد ثلاث منظمات غير ربحية: مركز الذكاء الاصطناعي المتوافق مع الإنسان في جامعة كاليفورنيا، بيركلي؛ ومنظمة "ذا فيوتشر سوسايتي"؛ والمركز الفرنسي لسلامة الذكاء الاصطناعي.
على الرغم من التعهدات الأخيرة المتعلقة بالسلامة من شركات مثل OpenAI و Anthropic، والتي وافقت على إجراء اختبارات حكومية للنماذج قبل إصدارها، تشير الأبحاث إلى أن الشركات لا تفي إلا بنحو نصف التزاماتها.
"لا يمكننا الانتظار"، قالت ريسا. "يجب أن نتحرك قبل أن يتطور الذكاء الاصطناعي إلى ما هو أبعد من قدرتنا على السيطرة عليه"

