آخر الأخبار
مختارة خصيصاً لك
أسبوعي
ابقَ في القمة

أفضل المعلومات حول العملات الرقمية تصلك مباشرة إلى بريدك الإلكتروني.

استقال رئيس قسم الروبوتات في شركة OpenAI، محذراً من استخدام الذكاء الاصطناعي في المراقبة بموجبtracدفاعي

بقلمكولينز ج. أوكوثكولينز ج. أوكوث
قراءة لمدة 3 دقائق
استقال رئيس قسم الروبوتات في شركة OpenAI، محذراً من استخدام الذكاء الاصطناعي في المراقبة بموجبtracدفاعي
  • استقال رئيس قسم هندسة الأجهزة والروبوتات في شركة OpenAI، معللاً ذلك بمخاوفه بشأن مراقبة الأمريكيين دون رقابة قضائية.
  • زعمت كايتلين كالينوفسكي أن وزارة الدفاع الأمريكية تعتزم استخدام الذكاء الاصطناعي في المراقبة والأسلحة ذاتية التشغيل.
  • وقد غادر المزيد من الموظفين شركات الذكاء الاصطناعي، مشيرين إلى دوافع خبيثة في مجالات مثل استخدام الذكاء الاصطناعي في المجال العسكري واستهداف الإعلانات الخبيثة.

استقالت كايتلين كالينوفسكي، الرئيسة السابقة لقسم الروبوتات في شركة OpenAI، من منصبها بعد عملها في الشركة لأكثر من عام بقليل. وأشارت كالينوفسكي إلى مخاوف من إمكانية استخدام الجيش الأمريكي لأدوات الذكاء الاصطناعي التي تقدمها الشركة في المراقبة الداخلية وفي أنظمة الاستهداف الآلية في الأسلحة الأمريكية.

غادرت كايتلين كالينوفسكي، رئيسة قسم هندسة الأجهزة والروبوتات في شركة OpenAI، الشركة بعد أن شغلت منصبها منذ نوفمبر 2024. وأعلنت كالينوفسكي استقالتها في 7 مارس، مشيرة إلى مخاوف بشأن صفقة تم التوصل إليها بين OpenAI ووزارة الدفاع الأمريكية في فبراير. 

يزعم كالينوفسكي أن الجيش الأمريكي سيستخدم الذكاء الاصطناعي للمراقبة الداخلية

بحسب كالينوفسكي، جاء استقالتها نتيجةً لنية وزارة الدفاع الأمريكية استخدام أدوات وقدرات الذكاء الاصطناعي لمراقبة المواطنين الأمريكيين دون رقابة قضائية. وكتبت الموظفة السابقة في شركة OpenAI على موقع X أن للذكاء الاصطناعي دورًا حيويًا في الأمن القومي. 

أوضحت أن وزارة الدفاع الأمريكية تعتزم استخدام الذكاء الاصطناعي للمراقبة والأسلحة ذاتية التشغيل، وهو قرار لا تتفق معه. وقالت إن قرارها "كان مبنياً على المبدأ، وليس على الأشخاص"، وأنها فخورة بما أنجزه فريق OpenAI خلال فترة عملها في الشركة. 

في فبراير، كثّف البنتاغون الأمريكي محادثاته مع كبرى شركات الذكاء الاصطناعي بشأن نشر نماذج آلية على أنظمة سرية. Cryptopolitan وذكر أن البنتاغون كان يحثّ على إجراء محادثات مع شركتي أنثروبيك وأوبن إيه آي لدمج أدوات الذكاء الاصطناعي في الشبكات العسكرية السرية.

قال إميل مايكل، كبير مسؤولي التكنولوجيا في البنتاغون، في اجتماع بالبيت الأبيض مع قادة التكنولوجيا، إن الجيش يريد أن تعمل نماذج الذكاء الاصطناعي على الشبكات المصنفة وغير المصنفة دون قيود أو شروط.

وصلت المفاوضات بين الحكومة الأمريكية وشركة أنثروبيك إلى طريق مسدود، إذ وضع قادة الشركة خطوطاً حمراء صارمة تمنع استخدام تقنيتهم ​​في عمليات المراقبة الداخلية وأنظمة استهداف الأسلحة ذاتية التشغيل. defiتحدّت إنذار البنتاغون بإلغاء ضمانات الذكاء الاصطناعي في أواخر فبراير.

أصرّ داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، على موقفه رافضاً السماح باستخدام تقنية الشركة في العمليات العسكرية. ورداً على ذلك، أصدر ترامب تعليماته لجميع الوكالات الفيدرالية بالتوقف عن استخدام تقنية أنثروبيك في أواخر فبراير. 

فرضت شركة OpenAI قيودًا على استخدام الذكاء الاصطناعي في المجال العسكري

توصلت وزارة الدفاع إلى اتفاق مع شركة OpenAI أثار انتقادات واسعة. وأشار إلى أن الاتفاق بدا انتهازياً إلى حد كبير، وأوضح أن الشركة فرضت قيوداً على كيفية استخدام أدوات الذكاء الاصطناعي الخاصة بها في العمليات العسكرية.

إلا أن طعن كالينوفسكي يزعم أن الإعلان كان متسرعاً، دون وجود الضوابط اللازمة. وأضافت أن استقالتها استندت إلى مخاوف تتعلق بالحوكمة، وهي أمور بالغة الأهمية لا يمكن التسرع فيها.

أكدت شركة OpenAI رحيل كالينوفسكي في بيان، لكنها أكدت أن علاقات الشركة مع إدارات الدفاع تمهد الطريق للاستخدام المسؤول لأدوات الذكاء الاصطناعي في الأمن القومي. 

في فبراير، أعلنت أنها ستنشر نسخة مخصصة من ChatGPT على منصة الذكاء الاصطناعي المؤسسية الآمنة التابعة لوزارة الحرب، والتي تحمل اسم GenAI.mil. وأشارت الشركة إلى أن تعاونها مع الوزارات العسكرية والدفاعية ينبع من الدور المحوري للذكاء الاصطناعي في حماية الأفراد وتجنب النزاعات.

أدى التوتر بين الحكومة الأمريكية وشركات الذكاء الاصطناعي بشأن تطوير الذكاء الاصطناعي العسكري إلى زيادة عدد الباحثين الذين يغادرون شركات الذكاء الاصطناعي. وقد استقال أحد كبار باحثي شركة أنثروبيك المختصين بالأمن، مصرحاً: "العالم في خطر"

كما استقال باحث آخر من شركة OpenAI من منصبه، قائلاً إن تقنية الذكاء الاصطناعي لديها طريقة للتحكم في البشر لا يستطيع المطورون فهمها أو منعها.

غادرت زوي هيتزيغ، الباحثة السابقة في شركة OpenAI، الشركة أيضاً في 11 فبراير. وقدّمت استقالتها في نفس اليوم الذي أعلنت فيه OpenAI بدء اختبار الإعلانات على منصة LLM ChatGPT. وادّعت أن شركة الذكاء الاصطناعي ترتكب نفس الخطأ الذي ارتكبته فيسبوك.

أعربت هيتزيج عن مخاوفها من أن الدور الفريد الذي يلعبه تطبيق ChatGPT كمصدر ثقة للكشف عن معلومات شخصية عميقة (مخاوف طبية، مشاكل في العلاقات، معتقدات دينية) يجعل استهداف الإعلانات محفوفًا بالمخاطر بشكل خاص.

أذكى العقول في عالم العملات الرقمية يتابعون نشرتنا الإخبارية بالفعل. هل ترغب بالانضمام إليهم؟ انضم إليهم.

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

المزيد من الأخبار
مكثفة في المشفرة
دورة