Your bank is using your money. You’re getting the scraps.WATCH FREE

البيت الأبيض يحث على تبني الذكاء الاصطناعي في الوكالات لأغراض الاستخبارات العسكرية

في هذا المنشور:

  • يحث البيت الأبيض الجيش الأمريكي ووكالات الاستخبارات على استخدام نماذج الذكاء الاصطناعي.
  • ركز مستشار الأمن القومي جيك سوليفان في توجيهاته على الحاجة الماسة إلى نشر تقنيات الذكاء الاصطناعي بشكل آمن.
  • من جهة أخرى، يدعو أنطونيو غوتيريش، الأمين العام للأمم المتحدة، الدول إلى حظر الأسلحة الفتاكة ذاتية التشغيل بحلول عام 2026.

يسعى البيت الأبيض، في ظل إدارة بايدن الحالية، إلى حثّ الجيش الأمريكي ووكالات الاستخبارات على استخدام نماذج الذكاء الاصطناعي. وينصبّ التركيز على التفوق على المنافس الصيني، في أعقاب مذكرة الأمن القومي الأخيرة. 

بحسب تقرير ، فإن التوجيه الصادر عن مستشار الأمن القومي جيك سوليفان يركز على الحاجة الماسة إلى نشر تقنيات الذكاء الاصطناعي بشكل آمن لجعل الولايات المتحدة مهيمنة في هذا المجال.

أوضح سوليفان خلال خطابه في كلية الحرب الوطنية أن التقدم في مجال الذكاء الاصطناعي يشكل مخاطر، إذ تستخدمه الدول المنافسة لتجاوز الولايات المتحدة، لا سيما في مجالات الفضاء والعمليات تحت الماء. وشدد على ضرورة دمج تقنية الذكاء الاصطناعي في هذه المجالات.

في العام الماضي، حث توجيه صادر عن وزارة الدفاع الحكومة على تطوير أنظمة أسلحة تسمح للقادة بممارسة المستويات الصحيحة من "الحكم البشري على استخدام القوة".

في حين أن أكثر من 50 دولة قد دعمت جهود الولايات المتحدة لتمكين الاستخدام العسكري المسؤول للأسلحة ذاتية التشغيل والذكاء الاصطناعي، فإن بعض الجماعات، مثل حملة "أوقفوا الروبوتات القاتلة"، تعتبر هذه الجهود "ضعيفة" 

يدعو أنطونيو غوتيريش، الأمين العام للأمم المتحدة، الدول إلى حظر الأسلحة الفتاكة ذاتية التشغيل بحلول عام 2026. ومع ذلك، لا يُتوقع أن تكون الولايات المتحدة جزءًا من هذا الاتفاق. 

انظر أيضًا:  "شركة إنفيديا العملاقة في مجال الذكاء الاصطناعي تواجه حالة من عدم اليقين رغم قيمتها السوقية البالغة 1.1 تريليون دولار"، كما يحذر الرئيس التنفيذي جنسن هوانغ

بحسب مسؤول في الإدارة، فإنّ الجهات المسؤولة عن الأمن القومي الأمريكي على دراية تامة بالمخاوف الأمنية المتعلقة بالأسلحة ذاتية التشغيل والذكاء الاصطناعي في ساحات المعارك. وأضاف المسؤول أن أنظمة الذكاء الاصطناعي يجب أن تخضع لعمليات اعتماد، ومن المتوقع مواجهة تحديات في تطبيقها.

الذكاء الاصطناعي العسكري سلاح ذو حدين

تستخدم الولايات المتحدة بالفعل الذكاء الاصطناعيdentالأهداف كجزء من برنامج تطوير الحرب الخوارزمية. وإلى جانب ذلك، تواصل الولايات المتحدة تطوير مجموعة واسعة من المشاريع الدفاعية الأخرى التي تستخدم الذكاء الاصطناعي. 

يقول المؤيدون لمثل هذه الأنظمة إن استهداف الذكاء الاصطناعي يساعد في تقليل الوقت والجهد المبذولين من قبل المحللين، ويسمح للجيش الأمريكي بضرب عدد أكبر من الأهداف في وقت قصير. 

مع ذلك، وصف مارك ميلي، الرئيس السابق لهيئة الأركان المشتركة، الذكاء الاصطناعي العسكري بأنه سلاح ذو حدين في خطاب ألقاه مؤخراً في معهد الأمن القومي بجامعة فاندربيلت. وأشار إلى أن هذا الاحتمال يفتح "صندوق باندورا". وأضاف أن الحروب المستقبلية قد تتمحور حول الروبوتات والذكاء الاصطناعي. 

أشار البيت الأبيض في المذكرة إلى أن "الذكاء الاصطناعي يتطور بسرعة كبيرة، وهو معقد للغاية، بحيث لا يمكننا الاعتماد حصراً على مجموعة صغيرة من الشركات الكبيرة". كما تتضمن المذكرة تعليمات بشأن شراء واستخدام تقنيات الذكاء الاصطناعي من قبل الوكالات غير المعنية بشؤون الأمن القومي.

انظر أيضًا  كيف تُحسّن روبوتات ميرك للأتمتة الروبوتية والذكاء الاصطناعي العمليات بنسبة تصل إلى 97%

لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية .

رابط المشاركة:

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. موقع Cryptopolitan أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصح tron بإجراء بحث مستقل dent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

الأكثر قراءة

جارٍ تحميل المقالات الأكثر قراءة...

ابقَ على اطلاع دائم بآخر أخبار العملات الرقمية، واحصل على تحديثات يومية في بريدك الإلكتروني

اختيار المحرر

جارٍ تحميل مقالات مختارة من قبل المحرر...

- النشرة الإخبارية الخاصة بالعملات الرقمية التي تُبقيك في الصدارة -

تتحرك الأسواق بسرعة.

نتحرك بشكل أسرع.

اشترك في النشرة اليومية Cryptopolitan واحصل على تحليلات دقيقة ومناسبة وفي الوقت المناسب حول العملات المشفرة مباشرة إلى بريدك الوارد.

انضم الآن ولن
تفوتك أي خطوة.

ادخل. احصل على الحقائق.
تقدم للأمام.

اشترك في CryptoPolitan