تزعم مجموعة آنت التابعة لجاك ما تحقيق اختراق في مجال الذكاء الاصطناعي بالاعتماد على رقائق مصنعة في الصين

- أعلنت شركة Ant Group Co. المدعومة من جاك ما أنها تعمل على تطوير نماذج تدريب الذكاء الاصطناعي الفعالة من حيث التكلفة باستخدام أشباه الموصلات الصينية الصنع.
- تعتمد نماذج الذكاء الاصطناعي على نهج مزيج الخبراء، ويزعم أنها تقلل التكلفة بنسبة 20٪، مما يخلق منافسة شديدة للشركات الأمريكية مثل Nvidia.
- نشرت الشركة هذا الشهر ورقة بحثية تزعم أن نماذجها تفوقت على نماذج شركة Meta Platforms Inc. في بعض الأحيان في معايير معينة لم يتم التحقق منها بعد.
كشفت مجموعة آنت عن تطويرها تقنيات جديدة لتدريب نماذج الذكاء الاصطناعي باستخدام أشباه موصلات صينية الصنع من شركتي علي بابا وهواوي. وتعتمد نماذج تدريب الذكاء الاصطناعي على منهجية التعلم الآلي "مزيج الخبراء" (MoE) لتحقيق نتائج مماثلة لتلك التي توفرها رقائق H800 من إنفيديا، بتكلفة أقل بنسبة 20% على الأقل.
مجموعة آنت أعلنت أنها لا تزال تستخدم معالجات إنفيديا لتطوير الذكاء الاصطناعي، لكنها تعتمد الآن بشكل أساسي على بدائل أخرى، بما في ذلك معالجات شركة أدفانسد مايكرو ديفايسز والرقائق الصينية، في أحدث نماذجها. وكشفت الشركة أن تكلفة تدريب تريليون رمز باستخدام أجهزة عالية الأداء بلغت حوالي 6.35 مليون يوان (ما يعادل 880 ألف دولار أمريكي تقريبًا)، لكن نهجها الأمثل سيخفض هذه التكلفة إلى 5.1 مليون يوان باستخدام أجهزة ذات مواصفات أقل.
قال روبرت ليا، كبير المحللين في بلومبيرغ إنتليجنس، إن ادعاء مجموعة آنت، في حال تأكيده، يُبرز أن الصين تسير بخطى ثابتة نحو تحقيق الاكتفاء الذاتي في مجال الذكاء الاصطناعي، إذ تتجه البلاد نحو نماذج أقل تكلفة وأكثر كفاءة حسابية، للالتفاف على قيود التصدير المفروضة على رقائق إنفيديا. في المقابل، جادل جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، بأن الطلب على الحوسبة سيزداد حتى مع ظهور نماذج أكثر كفاءة مثل R1 من ديب سيك، مُشيرًا إلى أن الشركات ستحتاج إلى رقائق أفضل لزيادة إيراداتها، لا إلى رقائق أرخص لخفض التكاليف.
تستفيد مجموعة آنت من الرقائق المصنعة في الصين في أحدث ابتكاراتها في مجال الذكاء الاصطناعي
شركة Ant المدعومة من جاك ما تُعلن عن إنجازٍ رائد في مجال الذكاء الاصطناعي مبني على رقائق صينية https://t.co/lups085kPb عبر @business
— ياهو فاينانس (@YahooFinance) ٢٤ مارس ٢٠٢٥
استخدمت شركة Ant Group Co. رقائق صينية الصنع من شركتي Alibaba وHuawei لتطوير تقنيات تعتمد على منهجية MoE لتدريب نماذج الذكاء الاصطناعي، مما أدى إلى خفض التكاليف بنسبة 20%، وفقًا لما ذكره مينمين لو (في برنامج "The China Show"). وأوضح لو أن استخدام منهجية MoE يقسم المهام إلى مجموعات بيانات أصغر لزيادة الكفاءة، "على غرار توظيف فريق من الخبراء، يركز كل منهم على جزء محدد من المشكلة لتعزيز الكفاءة الإجمالية".

بحسب بلومبيرغ، مثّلت نماذج تدريب الذكاء الاصطناعي دخول شركة آنت إلى سباق محموم بين الشركات الصينية والأمريكية، والذي تسارع منذ أن أثبتت شركة ديب سيك قدرة الشركات الصينية على تدريب نماذج فعّالة بتكلفة أقل بكثير من مليارات الدولارات التي استثمرتها شركتا أوبن إيه آي وجوجل التابعة لشركة ألفابت. وأبرز أحدث ابتكارات آنت غروب في مجال الذكاء الاصطناعي سعي الشركات الصينية إلى استخدام بدائل محلية لأحدث معالجات إنفيديا H800، التي تحظرها الولايات المتحدة حاليًا في الصين.
"إذا وجدت نقطة ضعف واحدة للتغلب على أفضل معلم كونغ فو في العالم، فلا يزال بإمكانك القول إنك هزمته، وهذا هو سبب أهمية التطبيق العملي." - روبن يو، كبير مسؤولي التكنولوجيا في شركة شينغشانغ للتكنولوجيا.
نشرت مجموعة آنت هذا الشهر ورقة بحثية زعمت فيها أن نماذجها تتفوق أحيانًا على نماذج شركة ميتا بلاتفورمز في بعض المعايير غير الموثقة. وإذا أثبتت هذه النماذج فعاليتها كما هو مُعلن، فقد تُشكل منصات آنت خطوة أخرى إلى الأمام في تطوير الذكاء الاصطناعي الصيني.
حظي تدريب الذكاء الاصطناعي التابع لوزارة التعليم بالاعتراف لاستخدامه من قبل جوجل وديب سيك
أفادت بلومبيرغ بأن نماذج تدريب الذكاء الاصطناعي التابعة لوزارة التعليم كانت خيارًا شائعًا، وقد حظيت باعتراف واسع النطاق لاستخدامها من قبل جوجل وشركة DeepSeek الناشئة في هانغتشو. وتعتزم شركة Ant الاستفادة من الإنجاز الأخير الذي حققته في نماذج اللغة الضخمة (Ling-Plus وLing-Lite) التي طورتها لحلول الذكاء الاصطناعي الصناعية، بما في ذلك الرعاية الصحية والتمويل.
ذكرت شركة Ant في ورقتها البحثية أن نموذج Ling-Lite حقق أداءً أفضل في معيار رئيسي مقارنةً بأحد نماذج Llama التابعة لشركة Meta. وتفوق كل من نموذجي Ling-Lite وLing-Plus على نظائرهما من DeepSeek في معايير اللغة الصينية. يحتوي Ling-Lite على 16.8 مليار مُعامل، وهي إعدادات قابلة للتعديل تعمل كأزرار ومقابض لتوجيه أداء النموذج. أما Ling-Plus فيحتوي على 290 مليار مُعامل، وهو عدد كبير نسبيًا في مجال نماذج اللغة. وللمقارنة، قدّرت مجلة MIT Technology Review أن نموذج GPT-4.5 التابع لشركة ChatGPT يحتوي على 1.8 تريليون مُعامل، بينما يحتوي نموذج DeepSeek-R1 على 671 مليار مُعامل.
كشفت شركة Ant أيضاً أنها واجهت تحديات في بعض جوانب تدريب الذكاء الاصطناعي، بما في ذلك الاستقرار. حتى التغييرات الطفيفة في الأجهزة أو بنية نموذج تدريب الذكاء الاصطناعي أدت إلى مشاكل، من بينها ارتفاعات مفاجئة في معدل خطأ النماذج.
هناك حل وسط بين ترك المال في البنك والمجازفة في عالم العملات الرقمية. ابدأ بمشاهدة هذا الفيديو المجاني عن التمويل اللامركزي.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)














