ركزت عناوين الأخبار مؤخراً على التطورات في مجال الذكاء الاصطناعي. لكن الذكاء الاصطناعي موجود منذ عقود، وسيظل جزءاً أساسياً من كيفية خوض الحروب في المستقبل لمجموعة واسعة من التطبيقات العسكرية والدفاعية.
الأمر لا يقتصر على الجيوش فقط؛ فقد تكون تقرأ هذا النص على جهاز يعتمد بشكل كبير على الذكاء الاصطناعي؛ وبالتالي، فمن المحتمل أنك قد استخدمت الذكاء الاصطناعي بالفعل بطريقة أو بأخرى حتى قبل الضجة الأخيرة.
من المرجح أن الذكاء الاصطناعي قد تم استخدامه في أي موقف قمت فيه بالدفع مقابل أي شيء عبر الإنترنت، على سبيل المثال الطعام أو الترفيه، أو استخدمت وجهك أو بصمة إصبعك لفتح هاتفك، أو انخرطت في وسائل التواصل الاجتماعي، أو حجزت رحلة عبر تطبيق الهاتف.
لقد اعتدنا على الذكاء الاصطناعي بطرق مختلفة، حيث قمنا بدمجه - غالباً دون أن ندرك ذلك - في حياتنا اليومية.
الذكاء الاصطناعي العسكري موجود منذ الحرب العالمية الثانية
على الرغم من أن الأسلحة كانت قادرة على اتخاذ بعض القرارات منذ الحرب العالمية الثانية، إلا أن الذكاء الاصطناعي يمكّنها الآن من اتخاذ قرارات أكثر بكثير، وسيجعلها في نهاية المطاف أمراً شائعاً.
ماذا لو تعرض شخص ما لهجوم وتم تحديدdentبواسطة برنامج التعرف على الوجوه؟ بدلاً منdentأفضل مطعم لتناول الطعام فيه، ماذا لو قام برنامج مماثل بتوجيه الطائرات لشن غارة جوية على هدف ما؟
اقرأ أيضاً: هل يُنذر اعتماد أنظمة الذكاء الاصطناعي العسكرية بتحولٍ خطير في الحروب؟
يبدو هذا وكأنه مشكلة كبيرة للغاية حتى الآن. السؤال هو: هل يمكن لأنظمة الذكاء الاصطناعي حقاً اتخاذ قرارات مصيرية بمفردها؟ دقتها ليست مثالية وتختلف باختلاف الموقف، ونعلم أنها ليست دائماً على صواب.
في مناطق النزاع الحقيقية، بات الذكاء الاصطناعي يختار بالفعل الأشخاص المستهدفين، كما هو الحال في غزة وأوكرانيا. ويُقال إن إسرائيل استخدمت نظام ذكاء اصطناعي يُدعى "لافندر"، والذي لا يخضع إلا لتدخل بشري محدود في اتخاذ القرارات، لاختيار الأهداف المحتملة، مما أدى إلى سقوط عدد كبير من الضحايا المدنيين، وذلك وفقًا لبحث نُشر في مجلة "+972" الإسرائيلية.
يمكن للآلات أن تفعل ذلك ببرود
عقدت النمسا مؤخراً مؤتمراً لمناقشة القوانين المنظمة لأسلحة الذكاء الاصطناعي، بهدف الحد من آثارها المدمرة. فالذكاء الاصطناعي يُستخدم بالفعل في القتال واستهداف البشر ومستوطناتهم. وقد صرّح وزير الخارجية النمساوي، ألكسندر شالينبيرغ، قائلاً:
"لا يمكننا أن ندع هذه اللحظة تمر دون اتخاذ إجراء. لقد حان الوقت للاتفاق على قواعد ومعايير دولية لضمان السيطرة البشرية."
المصدر: رويترز .
لا تزال التكنولوجيا التي تستخدمها العديد من الجيوش في مناطق الحرب بعيدة عن النضج، ولم تُستخدم بعد لتحديد الأهداف. فالتكنولوجيا التي نُطلق عليها اسم "الذكية" ليست بمستوى ذكاء القطط؛ حتى أن الخبراء يقولون إنه إذا بلغنا مستوى ذكاء الفئران في السنوات القادمة، فسيكون ذلك إنجازًا عظيمًا.
لكن مستوى الاعتماد عليه مرتفع للغاية لدرجة أنه يُستخدم بوحشية بطريقة تُجرّد كلاً من الهدف ومن يملك القوة النارية من إنسانيتهما. وهذا يثير تساؤلات جدية حول الاعتبارات الأخلاقية والإنسانية.
كبشر، لدينا مظالم، ولكن لمنع الجندي الحزين، يمكن للجيوش الآن استخدام هذا السلاح الجديد، كما ذكرت مجلة +972 نقلاً عن مصدر استخباراتي سري قال:
"لقد قامت الآلة بذلك ببرود. وهذا ما سهّل الأمر."
المصدر: مجلة +972 .
هل من المهم حقًا إشراك الناس في عملية الاختيار؟ عندما سأله أحد مستخدمي تطبيق لافندر، قال إنه في تلك المرحلة، كان يخصص 20 ثانية لكل هدف وينجز العشرات منها يوميًا. فباستثناء كونه مجرد ختم موافقة رسمي، لم يكن له أي قيمة إضافية كإنسان. لقد كان الأمر موفرًا للوقت بشكل كبير.
من السهل أن نفهم مقدار سلطة اتخاذ القرار التي نتنازل عنها نحن البشر طواعيةً للآلات.
لا تزال الاتفاقيات الدولية بعيدة المنال
بدأت الولايات المتحدة جهوداً تنظيمية من خلال تطبيق الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والاستقلالية. ويشمل هذا الإعلان أستراليا أيضاً. إلا أن التوصل إلى اتفاق دولي لا يزال بعيد المنال.
ويشير الإعلان إلى أن ضمانات الحماية أمر ضروري، حيث ينص على ما يلي:
"ينبغي على الدول تطبيق ضمانات مناسبة للتخفيف من مخاطر فشل القدرات العسكرية للذكاء الاصطناعي، مثل القدرة على اكتشاف وتجنب العواقب غير المقصودة والقدرة على الاستجابة، على سبيل المثال، عن طريق فصل أو تعطيل الأنظمة المنتشرة، عندما تُظهر هذه الأنظمة سلوكًا غير مقصود."
المصدر: وزارة الخارجية الأمريكية .
تؤكد الوثيقة أيضاً على أن استخدام الذكاء الاصطناعي في المجال العسكري "يمكن وينبغي أن يكون" أخلاقياً، إلى جانب تعزيز الأمن الدولي. لكن الواقع على أرض الواقع يُظهر صورة مختلفة تماماً، كما ذُكر آنفاً.
يُعد العثور على الأفراد العسكريين للعدو وتحديد مواقعهم أحد تطبيقات هذه الأنظمة؛ ومع الابتكار المستمر في مجال التفجير، ليس لدينا أي فكرة عن الاستخدامات العسكرية المعقدة الأخرى التي قد تظهر.
اقرأ أيضاً: كاسبرسكي تنفي مزاعم مساعدتها للجيش الروسي
لا يبدو أن النقاش حول استبعاد الذكاء الاصطناعي من الحروب خيار مطروح في هذه المرحلة، ولكن يجب على المشرعين في جميع أنحاء العالم والحكومات المشاركة في النزاعات الالتزام بنقص القدرات التي يمتلكها الذكاء الاصطناعي والدمار المحتمل الذي يمكن أن يلحقه بنا نحن البشر.
حالياً، لا تواكب عملية صنع السياسات وتيرة الابتكار، وهذا يستدعي معالجةً ما، إن لم يكن بشكل كامل، إذ لا يمكننا الاكتفاء بالقول: "يا للعجب! لقد حقق الذكاء الاصطناعي ألف قتلة أخرى!". ماذا سيقدم لنا الذكاء الاصطناعي؟ لا نعلم بعد، ولكن ما ينبغي على صانعي السياسات فعله ليس سؤالاً يقتصر على العباقرة فقط.
تقرير Cryptopolitan بقلم عامر شيخ

