في اليوم الأول من الضربات الأمريكية والإسرائيلية على إيران، تعرضت مدرسة للقصف في بلدة ميناب جنوب إيران، ما أسفر عن مقتل أكثر من 175 شخصًا، بينهم تلاميذ. ولم تُدلِ واشنطن ولا تل أبيب بأي تصريح حول الحادث، أي جهة مسؤوليتها. ويبقى السؤال مطروحًا: هل أصاب هدفًا خاطئًا ؟
في أول 24 ساعة، استهدفت القوات الأمريكية حوالي 1000 موقع، بمعدل 42 موقعًا في الساعة. وخلص تقرير صادر عن مركز هندسة العمليات المشتركة (CSET) حول الفيلق المحمول جوًا الثامن عشر إلى أنه باستخدام نظام مافن الذكي، أصبح بإمكان 20 شخصًا إنجاز يتطلب سابقًا فريقًا مؤلفًا من 2000 فرد في مركز العمليات الجوية المشتركة في العراق. وبحلول أواخر عام 2024، كانت الولايات المتحدة قد وضعت نموذجًا لغويًا ضخمًا، وهو نفس نوع البرمجيات المستخدمة في روبوتات الدردشة المدعومة بالذكاء الاصطناعي، داخل نظام مافن . وكانت هذه من أوائل الحروب التي استخدمت هذه التقنية في تحديد الأهداف.
يقول الجيش الأمريكي إنه لا يزال يحقق في ضربة ميناب. ولم يوضح بعد دور نظام الذكاء الاصطناعي، إن وجد، في إرسال صاروخ إلى ذلك المبنى.
ذكرت صحيفة نيويورك تايمز في وقت مبكر أن النظام ربما كان يعمل ببيانات قديمة dent الأجنبية لويزا لوفلوك على موقع X أن الضربة ربما كانت "مبنية على معلومات استخباراتية عمرها عقد من الزمان"، وأن أي شخص يفحص صور الأقمار الصناعية الحديثة مجانًا عبر الإنترنت كان سيرى "مدرسة بها ملعب رياضي" في أحد المواقع المستهدفة بالهجوم.
أجرى عالم الحاسوب آن توتي نغوين بحثًا حول مواطن الخلل في أنظمة الرؤية القائمة على الذكاء الاصطناعي. ورقته البحثية، بعنوان "نماذج لغة الرؤية عمياء: فشل في ترجمة السمات البصرية التفصيلية إلى كلمات"، إلى أن هذه الأنظمة غالبًا ما تفشل عندما يكون هناك هيكلان متجاوران، ويتعين على البرنامج تحديد أيهما يمثل أي منهما.
تُظهر صور الأقمار الصناعية من صحيفة نيويورك تايمز مدرسة شجرة طيبة الابتدائية الواقعة بجوار مجمع تابع للحرس الثوري الإيراني في ميناب، وهو الترتيب الدقيق الذي أشارت إليه .
من المسؤول عندما يخطئ الذكاء الاصطناعي؟
قالت إميليا بروباسكو، الضابطة السابقة في البحرية والباحثة البارزة في مركز الأمن والتكنولوجيا الناشئة، في بودكاست إن المسؤولية تقع على عاتق القائد الذي أصدر الأمر. هكذا يعمل الجيش . وأضافت أن مشكلة الصندوق الأسود، أي عدم القدرة على معرفة كيفية توصل نظام الذكاء الاصطناعي إلى إجابته، "مجال بحث مستمر، ولم يُحل بعد".
قبل الحرب، دخلت شركة أنثروبيك، التي توجد تقنيتها trac مافن، في نزاع تعاقدي مع وزارة الدفاع حول أمرين: ما إذا كان الذكاء الاصطناعي موثوقًا به بما يكفي لاتخاذ قرارات مصيرية ، وما إذا كان استخدام الذكاء الاصطناعي لربط نقاط البيانات المتناثرة يحوله إلى أداة مراقبة جماعية.
قال بروباسكو كلا المخاوف قائمة، لكنه أشار إلى "الحرج الذي يكتنف قيام شركة خاصة بوضع خطوط حول كيفية قيام الجيش بتنفيذ عملياته " .
قال هولاند ميشيل النقاش يتجه باستمرار نحو أسوأ السيناريوهات ، أي آلة تختار الأهداف وتطلق النار دون تدخل بشري . وأضاف أن هذا الخطر حقيقي، لكنه ليس ما يحدث الآن .
وقال: "إن العمل الأصعب والأكثر إلحاحاً هو جعل أنظمة الذكاء الاصطناعي أكثر شفافية وضمان أن البشر الذين يعتمدون على مخرجاتها يتخذون قرارات مستنيرة حقاً، وليس مجرد الانصياع لما تقترحه الآلة".
كما انتشر المحتوى الحربي الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بسرعة عبر الإنترنت.
التحقق التابعة لهيئة الإذاعة البريطانية (BBC Verify) trac مقاطع تم إنشاؤها بواسطة الذكاء الاصطناعي وصور الأقمار الصناعية المعدلة حول الصراع والتي حصدت مئات الملايين من المشاهدات.
قال تيموثي غراهام، الباحث في مجال الإعلام الرقمي بجامعة كوينزلاند للتكنولوجيا: " مثير للقلق حقًا ، وقد جعلت هذه الحرب تجاهلها أمرًا لا مفر منه . وأضاف: "ما انهار الحاجز الذي كان يحول دون إنشاء لقطات مصطنعة مقنعة للصراع ".
أعلنت منصة X أنها ستستبعد صناع المحتوى من نظام الدفع الخاص بها إذا نشروا مقاطع فيديو حربية مُولّدة بالذكاء الاصطناعي دون وضع علامة عليها. ووصفت مهسا عليمرداني، الباحثة في معهد أكسفورد للإنترنت والمتخصصة في الشأن الإيراني، هذا الإجراء بأنه " مؤشر واضح على إدراكهم لخطورة هذه المشكلة". ولم تردّ منصتا على سؤال حول ما إذا كانتا تخططان لاتخاذ الإجراء نفسه .

