قالت النمسا يوم الاثنين إنه ينبغي بذل جهود جديدة من أجل تنظيم الذكاء الاصطناعي، الذي من المحتمل أن يؤدي إلى أنظمة قتل مستقلة وأسلحة الذكاء الاصطناعي، المعروفة أيضًا باسم الروبوتات القاتلة.
النمسا تستضيف مؤتمرا لمناقشة اللوائح المتعلقة بأسلحة الذكاء الاصطناعي
جاءت هذه التصريحات في مؤتمر "الإنسانية عند مفترق الطرق: أنظمة الأسلحة المستقلة وتحدي التنظيم"، الذي تستضيفه الوزارة الاتحادية النمساوية للشؤون الأوروبية والدولية في فيينا والذي بدأ أمس ويستمر حتى اليوم.
وتنشأ تحديات أخلاقية وقانونية مع تزايد أهمية أنظمة الأسلحة المستقلة القادرة على القتل دون مساعدة بشرية، والتي أصبحت حقيقة واقعة مع التقدم السريع في تكنولوجيا الذكاء الاصطناعي، وتدعو العديد من البلدان إلى معالجة هذه القضية على أساس عاجل.
وقال وزير الخارجية النمساوي ألكسندر شالينبيرج:
"لا يمكننا أن ندع هذه اللحظة تمر دون اتخاذ إجراء. لقد حان الوقت للاتفاق على قواعد ومعايير دولية لضمان السيطرة البشرية."
المصدر: رويترز.
كان يتحدث في اجتماع للمنظمات الدولية وغير الحكومية ومبعوثين شاركوا من 143 دولة. وبما أن المناقشات حول هذا التحدي قد وصلت إلى طريق مسدود على المستوى العالمي، فقد ذكر في كلمته الافتتاحية في المؤتمر، حسبما وكالة الأنباء
"فلنتأكد على الأقل من أن القرار الأكثر عمقًا وأهمية، بشأن من يعيش ومن يموت، يظل في أيدي البشر وليس في أيدي الآلات."
وبما أن سنوات المحادثات في الأمم المتحدة لم تسفر إلا عن عدد قليل للغاية من النتائج ذات التأثير الحقيقي، فقد قال عدد كبير من المشاركين في مؤتمر فيينا إن وقت العمل أصبح خارج نطاق السيطرة.
يمكن للذكاء الاصطناعي أن يخطئ بين رأس الشخص وكرة القدم
وقالتdent اللجنة الدولية للصليب الأحمر ميريانا سبولجاريك إنه من المهم التحرك بشأن هذه القضية، وبسرعة كبيرة، وذلك خلال حديثها في حلقة نقاشية في المؤتمر.

وقالت سبولجاريك أيضًا إنه لا ينبغي لنا أن نعطي مسؤولية العنف أو السيطرة على العنف للآلات والخوارزميات، لأننا لا نريد أن نرى مثل هذه النكسات تتزايد، لأن ما نراه بالفعل في سيناريوهات العنف المتنوعة هو ما وصفته بـ "الإخفاقات الأخلاقية في مواجهة المجتمع الدولي".
وقال دبلوماسيون إن الذكاء الاصطناعي تسلل بالفعل إلى ساحات القتال ، إذ لوحظ في حرب أوكرانيا أن الطائرات بدون طيار مصممة بطريقة تمكنها من تحديد اتجاهها والوصول إلى هدفها حتى عندما تقطع أنظمة التشويش على الإشارات ارتباطها بالمشغلين الآخرين.
قالت الولايات المتحدة، أثناء مراجعة تقارير إعلامية، إن الجيش الإسرائيلي استخدم أنظمة الذكاء الاصطناعيdentالأهداف في غزة. لكن المفارقة أن الولايات المتحدة نفسها استمرت في توريد الأسلحة إلى إسرائيل، التي اتُهمت بالاستخدام غير المسؤول وقتل المدنيين الأبرياء.
وفي كلمة رئيسية، قال جان تالين، وهو مستثمر في مجال التكنولوجيا ومهندس برمجيات،
"لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء في الاختيار بطرق كبيرة وصغيرة."
المصدر: رويترز.
كان يشير إلى قدرة لا يزال الذكاء الاصطناعي يعاني منها، على سبيل المثال، في التمييز الخاطئ بين رأس الحكم الأصلع وكرة القدم، أو السيارات ذاتية القيادة التي تقتل المشاة لعدم تمييزها عبور الطريق. لكن المشكلة تكمن في أن دولًا مثل إسرائيل تستخدم هذه التقنية، التي لا تزال بحاجة إلى النضج، إن نضجت،dentالأهداف من بين آلاف المدنيين لقتل المطلوبين. كما شدد تالين على ضرورة توخي الحذر عند التعامل مع دقة هذه الأنظمة.

