آخر الأخبار
مختارة خصيصاً لك
أسبوعي
ابقَ في القمة

أفضل المعلومات حول العملات الرقمية تصلك مباشرة إلى بريدك الإلكتروني.

أطلقت شركة DeepSeek الصينية نموذجًا للذكاء الاصطناعي من الجيل التالي لمنافسة GPT-5. ولكن هل هو جيد بما فيه الكفاية؟

بواسطةجاي حامدجاي حامد
قراءة لمدة 3 دقائق
أطلقت شركة DeepSeek الصينية نموذجًا للذكاء الاصطناعي من الجيل التالي مصممًا لمنافسة GPT-5. ولكن هل هو جيد بما فيه الكفاية؟
  • أطلقت شركة DeepSeek نموذجها الجديد V3.2-Exp يوم الاثنين مع التركيز على السرعة وخفض التكاليف ومعالجة كميات كبيرة من البيانات.
  • يقدم النموذج تقنية DeepSeek Sparse Attention، التي تتخطى البيانات غير ذات الصلة لتحسين الكفاءة وخفض التكاليف إلى النصف.
  • يحذر الخبراء من أن قلة الاهتمام قد تؤدي إلى إزالة معلومات مهمة وتقليل الموثوقية على الرغم من فوائدها.

أطلقت شركة DeepSeek الصينية، الرائدة في مجال التكنولوجيا، نموذجًا تجريبيًا جديدًا، V3.2-Exp، في محاولة منها لمنافسة الهيمنة الأمريكية في مجال الذكاء الاصطناعي. وقد تم الإعلان عن هذا النموذج يوم الاثنين، ونُشر لأول مرة عبر منتدى Hugging Face الشهير المتخصص في الذكاء الاصطناعي.

تدعي شركة DeepSeek أن هذا الإصدار الأخير مبني على نموذجها الحالي، V3.1-Terminus، ولكن مع تركيزtronعلى السرعة والتكلفة ومعالجة الذاكرة.

وفقًا لما ذكرته أدينا ياكيفو، رئيسة قسم المجتمع الصيني في Hugging Face، فإن النموذج يتميز بشيء يسمى DeepSeek Sparse Attention أو DSA، والذي قالت إنه "يجعل الذكاء الاصطناعي أفضل في التعامل مع المستندات والمحادثات الطويلة" مع خفض تكاليف التشغيل إلى النصف.

إذا تذكرون، قبل حوالي عام، أطلقت DeepSeek نموذجها الأول، R1، بشكل مفاجئ وغير متوقع، مُحدثةً ثورة في عالم البرمجيات. أظهر هذا النموذج إمكانية تدريب نموذج لغوي ضخم باستخدام عدد أقل من الرقاقات وقدرة حاسوبية أقل بكثير. لم يتوقع أحد أن يتمكن فريق صيني من تحقيق ذلك في ظل هذه الظروف. مع الإصدار V3.2-Exp، لم يتغير الهدف: تقليل الاعتماد على الأجهزة، وزيادة الأداء.

يضيف خاصية DeepSeek Sparse Attention ويقلل من تكلفة تشغيل الذكاء الاصطناعي

تُعدّ تقنية البحث العميق (DSA) الميزة الأبرز في هذا النموذج، إذ تُغيّر طريقة اختيار الذكاء الاصطناعي للمعلومات التي يجب فحصها. فبدلاً من مسح كل شيء، تُدرّب تقنية DeepSeek النموذج على التركيز فقط على ما يبدو مفيدًا للمهمة. وأوضحت أن الفائدة هنا مزدوجة: "الكفاءة" و"خفض التكاليف".

من خلال تجاهل البيانات غير ذات الصلة، يتحرك النموذج بشكل أسرع ويستهلك طاقة أقل. وقالت إن النموذج صُمم مع مراعاة التعاون مفتوح المصدر.

صرح نيك باتينس، الذي يقود أبحاث الذكاء الاصطناعي في مجموعة فيوتشروم، لشبكة سي إن بي سي بأن النموذج لديه القدرة على إتاحة أدوات ذكاء اصطناعي فعّالة للمطورين الذين لا يستطيعون تحمل تكلفة استخدام نماذج أكثر تكلفة. وأضاف: "من المفترض أن يجعل النموذج أسرع وأكثر فعالية من حيث التكلفة للاستخدام دون أي انخفاض ملحوظ في الأداء". لكن هذا لا يعني عدم وجود مخاطر.

طريقة DeepSeek لتقنية الانتباه المتفرق طريقة اختيار شركات الطيران لمسارات رحلاتها. قد توجد مئات الطرق للوصول من مكان إلى آخر، لكن القليل منها فقط منطقي. يقوم النموذج بتصفية المعلومات غير المهمة والتركيز على ما هو جوهري - أو على الأقل ما يعتقد جوهري.

لكن هذا الأمر يثير بعض المخاوف. أوضحت إيكاترينا ألماسك، المؤسسة المشاركة لشركة بلانك بيج كابيتال، الأمر ببساطة قائلة: "باختصار، أنت تستبعد الأشياء التي تعتقد أنها غير مهمة". لكن المشكلة، كما قالت، تكمن في عدم وجود ضمان بأن النموذج يستبعد الصحيحة .

حذّرت إيكاترينا، التي دعمت شركات مثل داتايكو وداركtracوجرافكور، من أن التهاون في بعض الجوانب قد يُسبب مشاكل لاحقة. وقالت: "لقد فقدت هذه النماذج [نماذج الانتباه المتقطع] الكثير من التفاصيل الدقيقة. والسؤال الحقيقي هو: هل كانت لديهم الآلية المناسبة لاستبعاد البيانات غير المهمة، أم أن هناك آلية تستبعد البيانات المهمة بالفعل، وبالتالي ستكون النتيجة أقل أهمية بكثير؟"

يتصل بالرقائق الصينية ويصدر شفرة مفتوحة المصدر

على الرغم من هذه المخاوف، تؤكد شركة DeepSeek أن الإصدار V3.2-Exp يؤدي نفس أداء الإصدار V3.1-Terminus. كما يمكن تشغيل النموذج مباشرةً على رقائق صينية مثل Ascend وCambricon، دون الحاجة إلى أي إعدادات إضافية. وهذا أمر بالغ الأهمية في جهود الصين الأوسع نطاقًا لبناء الذكاء الاصطناعي على أجهزة محلية الصنع وتقليل الاعتماد على التكنولوجيا الأجنبية. وقالت أدينا: "يعمل DeepSeek مع هذه الرقائق مباشرةً بعد إخراجه من العلبة".

أتاحت الشركة أيضًا الكود البرمجي الكامل للنموذج وأدواته للعموم. وهذا يعني أن بإمكان أي شخص تنزيل الإصدار 3.2-Exp وتشغيله وتعديله أو البناء عليه. تتوافق هذه الخطوة مع استراتيجية DeepSeek مفتوحة المصدر، لكنها تُثير مسألة أخرى: براءات الاختراع. بما أن النموذج مفتوح المصدر، والفكرة الأساسية، وهي الانتباه المتفرق، موجودة منذ عام 2015، فلا يمكن لشركة DeepSeek احتكارها قانونيًا.

"هذا النهج ليس جديداً تماماً"، قالت إيكاترينا. بالنسبة لها، الجزء الوحيد الذي يمكن الدفاع عنه في هذه التقنية هو كيفية اختيار DeepSeek لما يجب الاحتفاظ به وما يجب تجاهله.

هنا يكمن جوهر المنافسة الحقيقية الآن. ليس فقط في تطوير نماذج أكثر ذكاءً، بل في جعلها أسرع وأرخص وأكثر كفاءة - دون المساس بالنتائج. حتى شركة DeepSeek وصفت هذا الإصدار بأنه "خطوة وسيطة نحو الجيل القادم من بنيتنا"، مما يشير إلى أنهم يعملون بالفعل على مشروع أكبر.

قال نيك إن النموذج يُظهر أن الكفاءة باتت لا تقل أهمية عن القوة الخام. وتعتقد أدينا أن الشركة تُخطط للمستقبل البعيد. وقالت: "تعتمد ديب سيك استراتيجية طويلة الأمد للحفاظ على تفاعل المجتمع مع تطوراتها. فالناس سيختارون دائمًا ما هو رخيص وموثوق وفعال"

إذا كنت تقرأ هذا، فأنت متقدم بالفعل. ابقَ متقدماً من خلال نشرتنا الإخبارية.

المزيد من الأخبار
مكثفة في المشفرة
دورة