تستخدم أمازون رقائق Cerebras على مستوى الرقاقة لتعزيز نماذج الذكاء الاصطناعي على AWS

-
ستقوم شركة أمازون لخدمات الويب بنشر رقائق Cerebras في مراكز البيانات الخاصة بها بموجب اتفاقية استدلال الذكاء الاصطناعي متعددة السنوات.
-
يجمع الإعداد بين خوادم Amazon Trainium وأنظمة Cerebras CS-3 وشبكات EFA على Amazon Bedrock.
-
ستستخدم أمازون برنامج Trainium للتعبئة المسبقة وبرنامج Cerebras لفك التشفير لتسريع استجابات الذكاء الاصطناعي.
أعلنت شركة أمازون لخدمات الويب يوم الجمعة أنها ستضع معالجات من شركة سيريبراس داخل مراكز البيانات الخاصة بها بموجب شراكة متعددة السنوات تركز على الاستدلال بالذكاء الاصطناعي.
تمنح هذه الصفقة أمازون طريقة جديدة لتسريع استجابة نماذج الذكاء الاصطناعي للمطالبات، وكتابة التعليمات البرمجية، ومعالجة طلبات المستخدمين المباشرة. وأعلنت AWS أنها ستستخدم تقنية Cerebras، بما في ذلك محرك Wafer-Scale Engine، لمهام الاستدلال.
لم تفصح الشركتان عن الشروط المالية. ومن المقرر أن يتم إطلاق المشروع على منصة Amazon Bedrock داخل مراكز بيانات AWS، مما يضع الشراكة مباشرةً ضمن أحد منتجات الذكاء الاصطناعي الرئيسية لشركة أمازون.
وقالت AWS إن النظام سيجمع بين الخوادم التي تعمل بتقنية Amazon Trainium وأنظمة Cerebras CS-3 وشبكة Elastic Fabric Adapter من Amazon.
تخطط AWS في وقت لاحق من هذا العام أيضًا لتقديم نماذج لغوية ضخمة مفتوحة المصدر رائدة، بالإضافة إلى Amazon Nova على أجهزة Cerebras. وصرح ديفيد براون، نائب رئيسdent خدمات الحوسبة والتعلم الآلي في AWS، بأن السرعة لا تزال تمثل مشكلة رئيسية في استدلال الذكاء الاصطناعي، لا سيما فيما يتعلق بمساعدة البرمجة في الوقت الفعلي والتطبيقات التفاعلية.
قال ديفيد: "يُعدّ الاستدلال هو المجال الذي يُقدّم فيه الذكاء الاصطناعي قيمة حقيقية للعملاء، لكن السرعة لا تزال تشكل عنق زجاجة حاسمًا لأعباء العمل الصعبة مثل المساعدة في البرمجة في الوقت الفعلي والتطبيقات التفاعلية"
تقوم أمازون بتقسيم عملية التعبئة المسبقة وفك التشفير على رقائق منفصلة
أعلنت AWS أن التصميم يستخدم أسلوبًا يُسمى تفكيك الاستدلال. وهذا يعني تقسيم استدلال الذكاء الاصطناعي إلى جزأين. الجزء الأول هو المعالجة الفورية، ويُسمى أيضًا التعبئة المسبقة. أما الجزء الثاني فهو توليد المخرجات، ويُسمى أيضًا فك التشفير.
أوضحت AWS أن المهمتين تعملان بشكل مختلف تمامًا. فمهمة التعبئة المسبقة متوازية، وتتطلب موارد حاسوبية كبيرة، ونطاق ترددي متوسط للذاكرة. أما مهمة فك التشفير فهي تسلسلية، وأقلdent للموارد الحاسوبية، وتعتمد بشكل أكبر على نطاق ترددي الذاكرة. كما تستغرق مهمة فك التشفير معظم الوقت في هاتين الحالتين، نظرًا لضرورة إنتاج كل رمز إخراج على حدة.
لهذا السبب، تُخصص AWS أجهزة مختلفة لكل مرحلة. سيتولى Trainium عملية التعبئة المسبقة، بينما سيتولى Cerebras CS-3 عملية فك التشفير.
قالت AWS إن شبكة EFA ذات زمن الوصول المنخفض وعرض النطاق الترددي العالي ستربط كلا الجانبين بحيث يمكن للنظام أن يعمل كخدمة واحدة بينما يركز كل معالج على مهمة منفصلة.
قال ديفيد: "ما نبنيه باستخدام Cerebras يحل هذه المشكلة: من خلال تقسيم عبء عمل الاستدلال عبر Trainium و CS-3، وربطهما بمحول النسيج المرن من أمازون، يقوم كل نظام بما هو الأفضل فيه. وستكون النتيجة استدلالًا أسرع بعشر مرات وأعلى أداءً مما هو متاح اليوم."
وقالت AWS أيضاً إن الخدمة ستعمل على نظام AWS Nitro، وهو الطبقة الأساسية لبنيتها التحتية السحابية.
وهذا يعني أنه من المتوقع أن تعمل أنظمة Cerebras CS-3 والحالات التي تعمل بتقنية Trainium بنفس مستوى الأمان والعزل والاتساق الذي يستخدمه عملاء AWS بالفعل.
أمازون تضغط بقوة أكبر على ترينيوم في الوقت الذي تواجه فيه إنفيديا تهديدًا آخر
هذا الإعلان أمازون فرصة أخرى للترويج لتقنية Trainium ومنافستها لرقائق Nvidia وAMD وغيرها من شركات تصنيع الرقائق الكبرى. وتصف AWS تقنية Trainium بأنها شريحة ذكاء اصطناعي داخلية الصنع، مصممة لتحقيق أداء قابل للتطوير وكفاءة عالية من حيث التكلفة في عمليات التدريب والاستدلال.
أعلنت AWS أن مختبرين رئيسيين للذكاء الاصطناعي قد التزما بالفعل باستخدامها. فقد اختارت شركة Anthropic شركة AWS شريكها التدريبي الرئيسي، وتستخدم منصة Trainium لتدريب النماذج ونشرها. أما OpenAI، فستستهلك 2 جيجاوات من سعة Trainium عبر بنية AWS التحتية لبيئة التشغيل ذات الحالة، والنماذج التجريبية، وأحمال العمل المتقدمة الأخرى.
وأضافت AWS أن Trainium3 شهد اعتماداًtronمنذ إصداره الأخير، حيث خصص العملاء في مختلف الصناعات سعة كبيرة.
تتولى شركة Cerebras جانب فك التشفير في النظام. وأوضحت AWS أن CS-3 مُخصصة لتسريع فك التشفير، مما يمنحها مساحة أكبر لإنتاج رموز الإخراج بسرعة. وتؤكد Cerebras أن CS-3 هو أسرع نظام استدلال ذكاء اصطناعي في العالم، ويُوفر نطاقًا تردديًا للذاكرة أكبر بآلاف المرات من أسرع وحدة معالجة رسومية (GPU).
أعلنت الشركة أن نماذج الاستدلال تشكل الآن نسبة أكبر من عمليات الاستدلال، وتولد عددًا أكبر من الرموز لكل طلب أثناء معالجتها للمشكلات. كما ذكرت سيريبراس أن شركات مثل أوبن إيه آي، وكوجنيشن، وميسترال، وغيرها تستخدم أنظمتها في مهام العمل الشاقة، وخاصةً البرمجة الآلية.
قال أندرو فيلدمان، المؤسس والرئيس التنفيذي لشركة Cerebras Systems: "إن الشراكة مع AWS لبناء حل استدلالي غير مجمع ستوفر أسرع استدلال لقاعدة عملاء عالمية"
وأضاف أندرو: "ستتمكن كل مؤسسة حول العالم من الاستفادة من الاستدلال السريع للغاية ضمن بيئة AWS الحالية الخاصة بها"
وتضيف هذه الصفقة مزيداً من الضغط على شركة Nvidia، التي وقعت في ديسمبر اتفاقية ترخيص بقيمة 20 مليار دولار مع شركة Groq وتخطط للكشف الأسبوع المقبل عن نظام استدلال جديد يستخدم تقنية Groq.
إذا كنت تقرأ هذا، فأنت متقدم بالفعل. ابقَ متقدماً من خلال نشرتنا الإخبارية.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)















