كشفت مجموعة ANT أنها طورت تقنيات جديدة لتدريب نماذج الذكاء الاصطناعي باستخدام أشباه الموصلات الصينية من Alibaba و Huawei. تستخدم نماذج تدريب الذكاء الاصطناعي مزيجًا من خبراء التعلم الآلي لتحقيق نتائج مماثلة لتلك الموجودة في رقائق H800 في NVIDIA بتكلفة أرخص بنسبة 20 ٪ على الأقل.
ادعت مجموعة ANT أنها لا تزال تستخدم NVIDIA لتطوير الذكاء الاصطناعى ولكنها تعتمد الآن في الغالب على البدائل ، بما في ذلك Advanced Micro Devices Inc. و Chines Chips ، لأحدث طرزها. كشفت الشركة أنها تكلف حوالي 6.35 مليون يوان (حوالي 880 ألف دولار) لتدريب الرموز المميزة 1T باستخدام أجهزة عالية الأداء ، ولكن نهجها المحسن سيخفض هذا التكلفة إلى 5.1 مليون يوان باستخدام أجهزة التمييز المنخفض.
قال كبير المحللين في Bloomberg Intelligence Robert Lea إن مطالبة ANT Group ، إذا تم التأكيد عليها ، أبرزت أن الصين كانت في طريقها إلى الاكتفاء الذاتي في الذكاء الاصطناعي حيث تحولت البلاد إلى نماذج منخفضة التكلفة وفعالة من الناحية الحسابية ، للعمل حول ضوابط التصدير على رقائق Nvidia. جادل الرئيس التنفيذي لشركة Nvidia Jensen Huang بأن الطلب على الحساب سينمو حتى مع ارتفاع النماذج الأكثر كفاءة مثل Deepseek's R1 ، مما يفترض أن الشركات ستحتاج إلى رقائق أفضل لتوليد المزيد من الإيرادات ، وليس النماذج الأرخص لخفض التكاليف.
تقوم مجموعة Ant Group بتعزيز الرقائق الصينية الصينية لأحدث ابتكارات منظمة العفو الدولية
يقوم Jack Ma المدعوم بنمل AI ببني على الرقائق الصينية https://t.co/lups085kpb عبر business
- Yahoo Finance (yahoofinance) 24 مارس 2025
استخدمت شركة ANT Group Co. رقائق الصنع الصينية من Alibaba و Huawei لتطوير تقنيات بناءً على نهج MOE لتدريب نماذج الذكاء الاصطناعى التي من شأنها خفض التكاليف بنسبة 20 ٪ ، وفقًا لـ Minmin Low (على Bloomberg TV "The China Show" ). أوضح لو أن استخدام نهج MOE اندلع المهام في مجموعات بيانات أصغر لجعلها أكثر كفاءة ، "على غرار توظيف فريق من الخبراء ، يركز كل منهم على جزء معين من المشكلة لتعزيز الكفاءة الكلية".

وفقًا لـ Bloomberg ، فإن نماذج تدريب الذكاء الاصطناعى تميزت بدخول Ant إلى سباق بين الشركات الصينية والأمريكية التي تسارعت منذ أن أظهرت Deepseek كيف يمكن تدريب النماذج القديرة على أقل بكثير من المليارات المستثمرة من قبل Openai و Alphabet Inc.. أكدت أحدث ابتكارات AI AI من AI Group كيف تحاول الشركات الصينية استخدام البدائل المحلية لأكثر رقائق NVIDIA H800 تقدم حاليًا من قبل الولايات المتحدة من الصين.
"إذا وجدت نقطة واحدة من الهجوم للتغلب على أفضل سيد الكونغ فو في العالم ، فلا يزال بإمكانك أن تقول إنك تغلب عليها ، وهذا هو السبب في أن التطبيق الحقيقي مهم." - روبن يو ، كبير مسؤولي التكنولوجيا في شركة شينغشانج للتكنولوجيا
نشرت ANT Group ورقة بحثية هذا الشهر ادعت أن نماذجها تتفوق في بعض الأحيان على Meta Platforms Inc. في بعض المعايير غير المحددة. إذا كانت النماذج تعمل كما تم الإعلان عنها ، فقد تضع منصات Ant في خطوة أخرى للأمام لتطوير الذكاء الاصطناعي الصيني.
مكاسب تدريب Moe AI الاعتراف باستخدامه من قبل Google و Deepseek
ذكرت بلومبرج أن نماذج تدريب Moe AI كانت خيارًا شائعًا اكتسب اعترافًا لاستخدامها من قبل Google و Hangzhou Startup Deepseek. تخطط ANT للاستفادة من الاختراق الأخير في نماذج اللغة الكبيرة (Ling-Plus و Ling-Lite) التي طورتها لحلول الذكاء الاصطناعى الصناعي ، بما في ذلك الرعاية الصحية والتمويل.
وقالت Ant في ورقة البحث إن نموذج Ling-Lite كان أفضل في معيار رئيسي مقارنة بأحد طرز Llama في Meta. تفوقت كل من طرازات Ling-Lite و Ling-Plus على ما يعادل معايير Deepseek على معايير اللغة الصينية. يحتوي Ling-Lite على 16.8 مليار من المعلمة ، وهي إعدادات قابلة للتعديل تعمل مثل المقابض والطلب لتوجيه أداء النموذج. Ling-Plus لديها 290 مليار معلمة ، والتي تعتبر كبيرة نسبيا في عالم نماذج اللغة. للمقارنة ، قدرت مراجعة تقنية معهد ماساتشوستس للتكنولوجيا أن GPT-4.5 من ChatGPT لديها 1.8 تريليون معلمة ، في حين أن Deepseek-R1 كان 671 مليار.
كشفت ANT أيضًا أنها واجهت تحديات في بعض مناطق تدريب الذكاء الاصطناعي ، بما في ذلك الاستقرار. حتى التغييرات الصغيرة في الجهاز أو بنية نموذج تدريب الذكاء الاصطناعي أدت إلى مشاكل ، بما في ذلك القفزات في معدل خطأ النماذج.
أكاديمية Cryptopolitan: قريبًا - طريقة جديدة لكسب دخل سلبي مع DeFi في عام 2025. تعرف على المزيد