دمج الذكاء الاصطناعي في التقنيات العسكرية مخاوف أخلاقية كبيرة، لا سيما فيما يتعلق بتطوير ونشر أنظمة الأسلحة ذاتية التشغيل. وقد سلط تقرير حديث صادر عن منظمة "ببليك سيتيزن" الضوء على المخاطر المحتملة المرتبطة باستخدام الأسلحة التي تعمل بالذكاء الاصطناعي، محذراً من تجريد الأهداف من إنسانيتها وخطر انتهاك قوانين حقوق الإنسان الدولية.
قضايا المساءلة وأوجه القصور في السياسات
مع مضي وزارة الدفاع الأمريكية وشركاتtracالعسكرية قدماً في تطبيق الذكاء الاصطناعي، تبرز تساؤلات حول المساءلة والرقابة الأخلاقية. وتؤكد البروفيسورة جيسيكا وولفنديل من جامعة كيس ويسترن ريزيرف على خطر اختيار الأهداف الخاطئة وفجوة المساءلة التي تنشأ عندما تتخذ الأسلحة ذاتية التشغيل قراراتها دون تدخل بشري مباشر.
رداً على ذلك، أصدر البنتاغون توجيهاً في يناير/كانون الثاني 2023 يحدد سياسته المتعلقة بأنظمة الأسلحة ذاتية التشغيل وشبه ذاتية التشغيل. ومع ذلك، يرى النقاد أن التوجيه لا يتناول مخاوف أخلاقية وقانونية ومساءلة جوهرية. وقد أشارت منظمة هيومن رايتس ووتش وعيادة حقوق الإنسان الدولية التابعة لكلية الحقوق بجامعة هارفارد إلى ثغرات في السياسة، بما في ذلك استثناءات تتعلق بالمراجعة العليا في حالات الاحتياجات العسكرية العاجلة، واستبعاد وكالات حكومية أخرى من نطاقها.
التداعيات الدولية واتجاهات التنمية
يُفاقم غياب الأطر القانونية الشاملة التي تتناول الأسلحة ذاتية التشغيل المعضلة الأخلاقية. فبينما يدعو البعض إلى معاهدة عالمية تحظر نشر هذه الأسلحة، فإن الواقع يُشير إلى أن تطوير الأسلحة ذاتية التشغيل جارٍ بالفعل في جميع أنحاء العالم، مدفوعًا بالتوترات الجيوسياسية ومصالح المجمعات الصناعية العسكرية.
في الولايات المتحدة، تقود شركات مثل جنرال دايناميكس، وفيجور إندستريال، وأندوريل إندستريز، تطوير الدبابات والغواصات والطائرات المسيّرة غير المأهولة. ورغم التأكيدات على الالتزام بالمبادئ الأخلاقية والقانون الدولي، لا تزال المخاوف قائمة بشأن احتمال اتخاذ قرارات متحيزة ووقوع ضحايا مدنيين غير مقصودين.
الاعتبارات الأخلاقية في ظل التقدم التكنولوجي
يرى جيريمي موسى، الأستاذ المشارك المتخصص في أخلاقيات الحرب، أن التركيز على الأسلحة ذاتية التشغيل يصرفtracعن الآثار الأخلاقية الأوسع للحرب. ويؤكد أن مسؤولية قرارات استخدام القوة المميتة تقع في نهاية المطاف على عاتق صانعي القرار من البشر، بغض النظر عن التكنولوجيا المستخدمة.
علاوة على ذلك، يتجاوز استخدام الذكاء الاصطناعي في الحروب الأسلحة ذاتية التشغيل، حيث تُعيد تقنيات مثل الطائرات المسيّرة تشكيل نطاق الصراع. وبينما يُشيد المؤيدون بقدراتها على الاستهداف الدقيق، يُشير المنتقدون إلى حالات سقوط ضحايا مدنيين نتيجةً لمعلومات استخباراتية خاطئة وتحيزات خوارزمية.
في ظلّ سعي الدول لمواجهة التداعيات الأخلاقية للحرب المدعومة بالذكاء الاصطناعي، بات من الضروري إعطاء الأولوية للشفافية والمساءلة والتعاون الدولي. ويجب أن تترافق الجهود المبذولة لتنظيم تطوير ونشر الأسلحة ذاتية التشغيل مع مناقشات أوسع نطاقاً حول أخلاقيات الحرب ومسؤوليات صانعي القرار العسكري.
في نهاية المطاف، يتطور المشهد الأخلاقي للحرب ببطء، ويؤكد انتشار التقنيات المتقدمة على ضرورة التدقيق المستمر والتأمل الأخلاقي. وبينما يتصارع المجتمع مع تداعيات الذكاء الاصطناعي في النزاعات، يبقى السعي نحو الوضوح الأخلاقي تحديًا مستمرًا في سبيل تحقيق السلام والأمن العالميين.

