في الآونة الأخيرة، ركزت العناوين الرئيسية على التقدم في مجال الذكاء الاصطناعي. لكن الذكاء الاصطناعي موجود منذ عقود، وسيظل يشكل جزءًا كبيرًا من كيفية خوض الحرب في المستقبل لمجموعة من التطبيقات العسكرية والدفاعية.
لا يقتصر الأمر على الجيوش فحسب؛ ربما تقرأ هذا النص على جهاز يعتمد بالفعل بشكل كبير على الذكاء الاصطناعي؛ وبالتالي، ربما تكون قد استخدمت الذكاء الاصطناعي بالفعل في بعض القدرات حتى قبل الضجة الأخيرة.
من المرجح أنه تم استخدام الذكاء الاصطناعي في أي موقف دفعت فيه مقابل أي شيء عبر الإنترنت، على سبيل المثال مقابل الطعام أو الترفيه، أو استخدمت وجهك أو بصمة إصبعك لفتح هاتفك، أو انخرطت في وسائل التواصل الاجتماعي، أو قمت بالسفر عبر تطبيق الهاتف.
لقد اعتدنا على الذكاء الاصطناعي بطرق مختلفة، وقمنا بدمجه - دون أن ندرك في كثير من الأحيان - في حياتنا اليومية.
الذكاء الاصطناعي العسكري موجود منذ الحرب العالمية الثانية
على الرغم من أن الأسلحة كانت قادرة على اتخاذ بعض القرارات منذ الحرب العالمية الثانية، إلا أن الذكاء الاصطناعي يمكّنها الآن من اتخاذ المزيد من القرارات وسيجعلها في النهاية أمرًا شائعًا.
ماذا لو تعرض شخص ما للهجوم وتم تحديدdentبواسطة برنامج التعرف على الوجه؟ فبدلاً منdentأفضل مطعم لتناول الطعام فيه، ماذا لو قامت برامج مماثلة بتوجيه الطائرات لشن غارة جوية على هدف ما؟
اقرأ أيضًا: هل ينبئ اعتماد الأنظمة العسكرية للذكاء الاصطناعي بتحول شرير في الحرب؟
يبدو أن هذه مشكلة كبيرة حقًا حتى الآن. والسؤال هو: هل يمكن لأنظمة الذكاء الاصطناعي أن تتخذ قرارات الحياة أو الموت من تلقاء نفسها؟ دقتها ليست مثالية وتختلف حسب الموقف، ونحن نعلم أنها ليست صحيحة دائمًا.
وفي مناطق الصراع الفعلية، يقوم الذكاء الاصطناعي بالفعل باختيار الأشخاص الذين يستهدفهم، مثل غزة وأوكرانيا. يقال إن إسرائيل استخدمت نظام الذكاء الاصطناعي (AI) المسمى Lavender، والذي لديه الحد الأدنى من إمكانية تطبيق اتخاذ القرار البشري، لاختيار أهداف محتملة، مما أدى إلى عدد كبير من الضحايا المدنيين، وفقًا لبحث نُشر في منفذ الأخبار الإسرائيلي +972 مجلة.
يمكن للآلات أن تفعل ذلك ببرود
في الآونة الأخيرة، عقدت النمسا مؤتمرا لمناقشة القواعد التنظيمية المتعلقة بأسلحة الذكاء الاصطناعي لمعالجة الآثار المدمرة التي يمكن أن تحدثها. الذكاء الاصطناعي يحارب ويستهدف البشر ومستوطناتهم بالفعل. وقال وزير الخارجية النمساوي ألكسندر شالنبرج:
"لا يمكننا أن ندع هذه اللحظة تمر دون اتخاذ إجراء. والآن حان الوقت للاتفاق على القواعد والأعراف الدولية لضمان السيطرة البشرية”.
المصدر: رويترز .
ولا تزال التكنولوجيا التي تنشرها العديد من الجيوش في مناطق الحرب بعيدة عن النضج ولم يتم استخدامها بعد لتحديد من سيتم استهدافه. إن التكنولوجيا التي نطلق عليها اسم "الذكاء" ليست بعد قادرة على تحقيق قدرة دماغ القطة؛ حتى الخبراء يقولون إننا إذا وصلنا إلى مستوى ذكاء الفأر في السنوات القادمة، فسيكون ذلك إنجازًا كبيرًا.
لكن مستوى الاعتماد عليها مرتفع للغاية لدرجة أنه يتم نشرها بوحشية بطريقة تجرد الهدف وصاحب القوة النارية من إنسانيتهما. إنه يثير تساؤلات جدية حول المخاوف الأخلاقية والإنسانية والأخلاقية.
كبشر، لدينا مظالم، ولكن لمنع جندي حزين، يمكن للجيوش الآن استخدام هذا السلاح الجديد، كما ذكرت مجلة +972 مصدرًا سريًا من المخابرات قال:
"الآلة فعلت ذلك ببرود. وهذا جعل الأمر أسهل."
المصدر : مجلة +972 .
هل من المهم حقًا أن يشارك الأشخاص في عملية الاختيار؟ وعندما سأله مستخدم آخر لـ Lavender، قال إنه في تلك المرحلة، سيخصص 20 ثانية لكل هدف ويكمل العشرات منها كل يوم. وبصرف النظر عن كونه ختم الموافقة الرسمي، لم يكن لديه قيمة إضافية كإنسان. لقد كان توفيرًا للوقت تمامًا.
من السهل أن نفهم مقدار قوة القرار التي نستسلمها نحن البشر للآلات عن طيب خاطر.
الاتفاقيات الدولية لا تزال بعيدة المنال
بدأت الولايات المتحدة جهودًا تنظيمية من خلال تنفيذ الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والاستقلالية. ويشمل الإعلان أيضًا أستراليا. لكن التوصل إلى اتفاق دولي لا يزال بعيد المنال.
ويذكر الإعلان أن ضمان الضمانات أمر ضروري، حيث ينص على ما يلي:
"يجب على الدول تنفيذ الضمانات المناسبة للتخفيف من مخاطر الفشل في قدرات الذكاء الاصطناعي العسكرية، مثل القدرة على اكتشاف وتجنب العواقب غير المقصودة والقدرة على الاستجابة، على سبيل المثال، عن طريق فك الارتباط أو إلغاء تنشيط الأنظمة المنشورة، عندما تظهر هذه الأنظمة سلوكًا غير مقصود. "
المصدر: وزارة الخارجية الأمريكية .
وتؤكد الوثيقة أيضًا على أن استخدام الذكاء الاصطناعي في الجيش "يمكن، بل وينبغي"، أن يكون أخلاقيًا، إلى جانب تعزيز الأمن الدولي. لكن الحقائق على الأرض تظهر صورة مختلفة تماما، كما نوقش أعلاه.
يعد العثور على الأفراد العسكريين المعادين وتحديد مواقعهم أحد تطبيقات هذه الأنظمة؛ ومع استمرار الابتكار المذهل، ليس لدينا أي فكرة عن الاستخدامات العسكرية المعقدة الأخرى التي يمكن أن تظهر.
اقرأ أيضًا: كاسبيرسكي تنفي مزاعم مساعدة الجيش الروسي
لا يبدو أن النقاش الدائر حول استبعاد الذكاء الاصطناعي من الحرب خيارًا في الوقت الحالي، ولكن يجب على المشرعين في جميع أنحاء العالم والحكومات المشاركة في الصراعات الالتزام بنقص القدرات التي يتمتع بها الذكاء الاصطناعي والخراب المحتمل الذي يمكن أن يلحقه. نحن البشر.
في الوقت الحالي، تفشل عملية صنع السياسات في مجاراة وتيرة الابتكار، ولابد من معالجة ذلك إلى حد ما، إن لم يكن بشكل كامل، لأننا لا نستطيع أن نجلس ونقول: واو! قام الذكاء الاصطناعي بقتل 1000 شخص آخر. ماذا سيقدم الذكاء الاصطناعي؟ لا نعرف حتى الآن، ولكن ما الذي ينبغي لصناع القرار السياسي أن يفعلوه ليس سؤالاً للعباقرة فقط.
تقرير كريبتوبوليتان بقلم عامر شيخ
أكاديمية Cryptopolitan: هل تريد تنمية أموالك في عام 2025؟ تعرف على كيفية القيام بذلك مع DeFi في مناسنا الإلكتروني القادم. احفظ مكانك