آخر الأخبار
مختارة خصيصاً لك
أسبوعي
ابقَ في القمة

أفضل المعلومات حول العملات الرقمية تصلك مباشرة إلى بريدك الإلكتروني.

البيت الأبيض يدرس إجراء فحص مسبق لنماذج الذكاء الاصطناعي، واختبار آفاق جديدة في الرقابة على التكنولوجيا

بواسطةإبيام واياسإبيام واياس
قراءة لمدة 3 دقائق
يرغب البيت الأبيض الآن في مراجعة نماذج الذكاء الاصطناعي قبل نشرها للجمهور
  • يرغب البيت الأبيض الآن في مراجعة نماذج الذكاء الاصطناعي قبل طرحها للجمهور.
  • وبحسب ما ورد، تدرس الإدارة إصدار أمر تنفيذي لتشكيل فريق عمل معني بالذكاء الاصطناعي يتولى الإشراف على إجراءات الرقابة على الذكاء الاصطناعي.
  • يخشى المنظمون أن تتمكن أنظمة الذكاء الاصطناعي الآن من الكشف عن عدد كبير من الثغرات الأمنية في أنظمة التشغيل ومتصفحات الويب.

يدرس البيت الأبيض خطة لمراجعة بعض أقوى أنظمة الذكاء الاصطناعي قبل طرحها للجمهور.

يقترح هذا المقترح، الذي نشرته صحيفة نيويورك تايمز لأول مرة 4 في مايو ، فرض رقابة فيدرالية في مرحلة حاسمة من دورة حياة الذكاء الاصطناعي، قبيل نشره. ويتزايد قلق المسؤولين من قدرة النماذج الرائدة على تحديدdentنقاط الضعف في البرمجيات التي تدعم البنية التحتية الأساسية.

تحليل نشرته "ذا كونفرسيشن" يشير إلى أدلة متزايدة على قدرة أنظمة الذكاء الاصطناعي الحديثة على كشف عدد كبير من الثغرات الأمنية في أنظمة التشغيل ومتصفحات الويب. هذه القدرة، رغم أهميتها في مجال الأمن الدفاعي، تزيد من المخاطر في حال إساءة استخدام هذه الأدوات أو وقوعها في الأيدي الخطأ.

قدرات النموذج تدفع إلى إعادة النظر في السياسات

اكتسب النقاش حول السياسات أهمية ملحة بعد أن قررت شركة أنثروبيك تأجيل طرح أحدث طرازاتها، ميثوس،. وكشفت الاختبارات الداخلية عن قدرات متقدمة في مجال الأمن السيبراني، بما في ذلك القدرة علىdentالعديد من الثغرات القابلة للاستغلال. واستجابةً لذلك، قيّدت الشركة الوصول إلى مجموعة محدودة من المؤسسات المسؤولة عن البنية التحتية الحيوية من خلال مبادرة "مشروع غلاسوينغ".

بحسب موقع "ذا كونفرسيشن"، تدخل البيت الأبيض عندما استكشفت شركة "أنثروبيك" توسيع نطاق الوصول، مما يشير إلى نهج عملي أكثر في الإشراف على الذكاء الاصطناعي حتى في الوقت الذي ظلت فيه السياسة التقنية الأوسع نطاقاً مدفوعة بالسوق نسبياً.

لا تقتصر المخاوف على شركة أو نظام واحد. فقد أفاد في تقييم أجراه في أبريل أن نموذج OpenAI GPT-5.5 أظهر أداءً مماثلاً في مهام الأمن السيبراني المتقدمة.

في إحدى التجارب التي سلط عليها المعهد الضوء، قام النموذج بهندسة عكسية لآلة افتراضية مخصصة وحل تحدٍ معقد في دقائق، أسرع بكثير من خبير بشري يستخدم أدوات احترافية.

وكتب المعهد في تقريره: "كان السؤال الرئيسي هو ما إذا كان هذا يعكس اختراقًا خاصًا بنموذج واحد، أم أنه جزء من اتجاه أوسع. وتشير نتائج نقطة تفتيش مبكرة لـ GPT-5.5 إلى الاحتمال الأخير"

تشير النتائج مجتمعة إلى أن هذه القدرات أصبحت سمة شائعة لأنظمة الذكاء الاصطناعي الرائدة، بدلاً من كونها اختراقاً معزولاً.

تتخذ المخاوف الأمنية المتعلقة بالذكاء الاصطناعي بعدًا جيوسياسيًا

لا تقتصر التداعيات على التكنولوجيا فحسب، بل تمتد لتشمل الأمن القومي. ويحذر باحثون استشهدت بهم صحيفة "ذا كونفرسيشن" من أن جماعات مرتبطة بدول قد تستخدم أدوات مماثلة لتنفيذ عمليات إلكترونية، تستهدف على الأرجح البنية التحتية أو الأنظمة الاقتصادية.

بدأت تظهر بالفعل بوادر هذا التحول. فقد أفادت شركة أنثروبيك بأن جهات يُشتبه في دعمها من قبل دول تستخدم نماذجها في حملات تجسس أثرت على عشرات المنظمات. وفي الوقت نفسه، صرّحت مايكروسوفت وأوبن إيه آي في عام 2024 بأن جماعات تابعة للحكومات تستغل الذكاء الاصطناعي لتعزيز الهجمات الإلكترونية.

في الوقت نفسه، لا يزال الباحثون يواجهون صعوبة في إيجاد طريقة موثوقة للتحكم في هذه الأنظمة. وتشير دراسة استشهدت بها " ذا كونفرسيشن" إلى إمكانية تجاوز مرشحات الأمان المطبقة بعد التدريب، في حين قد تبدو بعض النماذج متوافقة ظاهريًا دون التخلص تمامًا من القدرات الخطرة.

وقد أدى ذلك إلى تزايد وجهة نظر صانعي السياسات بأن تدابير السلامة قد تحتاج إلى تضمينها أثناء تطوير النموذج بدلاً من إضافتها لاحقاً.

التوقعات السياسية: أطر مجزأة، وضغوط متزايدة

يتشكل المقترح الأمريكي ضمن بيئة تنظيمية عالمية أوسع نطاقاً لا تزال تتطور:

  • يحدد قانون الذكاء الاصطناعي للاتحاد الأوروبي إطار عمل قائم على المخاطر مع متطلبات صارمة للتطبيقات عالية المخاطر، على الرغم من أنه لا يفرض موافقة مركزية على النماذج الرائدة.
  • اعتمدت المملكة المتحدة على التعاون الطوعي من خلال معهد السلامة للذكاء الاصطناعي في المملكة المتحدة، مع التركيز على شراكات الاختبار والتقييم مع المطورين.
  • يبدو أن النهج الأمريكي الناشئ يتجه نحو الإشراف المباشر على الأنظمة الأكثر تطوراً، ربما من خلال مراجعة ما قبل الإصدار.

بدأ المشرعون بدراسة هذه القضايا عن كثب، حيث عقدت جلسات استماع في الكونغرس في أبريل/نيسان حول سلامة الذكاء الاصطناعي وحوكمته، على الرغم من عدم وجود تشريع شامل حتى الآن.

إذا تم تطبيق نظام مراجعة ما قبل الإصدار في الولايات المتحدة، فسيمثل ذلك تحولاً نحو التدخل المبكر، ووضع الرقابة في النقطة التي يمكن فيها توقع المخاطر بدلاً من بعد حدوثها.

قد تُرسّخ هذه الخطوة معيارًا عالميًا غير رسمي، لا سيما مع تركز كبار مطوري الذكاء الاصطناعي في الولايات المتحدة. وفي الوقت نفسه، تُثير احتمال نقل الشركات أجزاءً من عمليات التطوير أو النشر إلى مناطق ذات قيود أقل.

يتمثل التحدي الذي يواجه صانعي السياسات في تحقيق التوازن بين الابتكار وإدارة المخاطر في مجال تتطور فيه القدرات بسرعة، وقد تكون عواقب سوء الاستخدام بعيدة المدى.

في الوقت الحالي، تظل أكثر الضمانات الملموسة اختيارية. تقوم شركات مثل أنثروبيك بتقييد الوصول إلى الأنظمة الحساسة، بينما تواصل منظمات مثل معهد سلامة الذكاء الاصطناعي في المملكة المتحدة إجراء تقييماتdent .

إن ما إذا كانت الولايات المتحدة ستضفي الطابع الرسمي على نهجها - وما إذا كانت الدول الأخرى ستتماشى معه - سيكون عاملاً رئيسياً في تشكيل كيفية إدارة الذكاء الاصطناعي في السنوات المقبلة.

لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية.

شارك هذا المقال

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

المزيد من الأخبار
مكثفة في المشفرة
دورة