Your bank is using your money. You’re getting the scraps.WATCH FREE

يتحدى جهاز Mixtral 8x7B الجديد أفضل نماذج الذكاء الاصطناعي بأداءٍ مبهر

في هذا المنشور:

ملخص سريع:

  • أذهل Mixtral 8x7B، من Mistral AI، عالم الذكاء الاصطناعي بالتكنولوجيا الذكية، متغلبًا على منافسيه GPT-3.5 وLlama 2 70B.
  • النموذج مفتوح المصدر ومتعدد الاستخدامات، ويتحدث لغات متعددة، ويتعامل مع مهام كبيرة، ويمكنه حتى البرمجة.
  • احصل عليه على Hugging Face، واستخدمه بأمان، وترقب المزيد من عجائب الذكاء الاصطناعي في المستقبل المثير.

في ظل التطور السريع للذكاء الاصطناعي، برز لاعب جديد نسبيًا على الساحة، مثيرًا ضجة في عالم التكنولوجيا. يُذهل نظام Mixtral 8x7B، الذي طورته شركة الذكاء الاصطناعي الفرنسية Mistral AI، الجميع بنهجه الفريد وقدراته المذهلة. يستكشف هذا المقال ما يميز نظام Mixtral 8x7B ولماذا يُحدث ضجة في مجتمع الذكاء الاصطناعي.

ميكسترال 8x7B: تغيير جذري

بينما عالم التكنولوجيا بتحديث جوجل جيميني لـ Bard، دخل Mixtral 8x7B بهدوء إلى الساحة. ما يميزه هو استخدامه لمزيج من الخبراء (MoE) لتوليد استجابات شبيهة بالاستجابة البشرية. يختلف هذا النهج اختلافًا كبيرًا عن نماذج مثل ChatGPT وGoogle Bard. والجدير بالذكر أن Mixtral 8x7B يتميز بنموذج هائل يضم 46.7 مليار معلمة، إلا أنه لا يتطلب سوى جزء ضئيل من موارد الأجهزة.

لا يُستهان بأداء Mixtral 8x7B. فهو يُضاهي، بل ويتفوق،dentعلى نموذج ChatGPT الشهير GPT-3.5 ونموذج Meta Llama 2 70B. هذا النموذج مفتوح المصدر مرخص بموجب Apache 2.0، مما يسمح لأي شخص بالوصول إليه واستخدامه. وهو لا يقتصر على لغة واحدة، إذ يعمل بسلاسة باللغات الإنجليزية والفرنسية والإيطالية والألمانية والإسبانية. علاوة على ذلك، يتميز بقدرته على توليد الشيفرة البرمجية.

تعرف على Mistral AI - العقول المدبرة وراء ثورة الذكاء الاصطناعي

شركة ميسترال للذكاء الاصطناعي، العقل المدبر وراء ميكسترال، هي شركة ذكاء اصطناعي فرنسية أسسها باحثون ذوو خبرة سابقة في كلٍّ من ميتا وجوجل. هذا العام، حققت ميسترال للذكاء الاصطناعي نجاحًا باهرًا بحصولها على تمويل يقارب 450 مليون يورو. كان إطلاق ميكسترال 8x7B، أحدث طرازاتها، بعيدًا كل البعد عن المألوف، حيث نُشر رابط تورنت بسيط على تويتر .

انظر أيضًا:  هل نحن مستعدون لمواجهة مجرمي الذكاء الاصطناعي الذين يستغلون الذكاء الاصطناعي التوليدي؟

ميزة وزارة التعليم

يستخدم ميكسترال بنية MoE لمعالجة الرموز الواردة، وتوزيعها على خبراء مختلفين داخل النظام. كل خبير هو في الأساس شبكة عصبية، ويضم ميكسترال 8x7B ثمانية منها. تتيح هذه البنية إنشاء MoEs هرمية، حيث يمكن للخبير أن يكون MoE آخر. عند إرسال طلب إلى ميكسترال 8x7B، تختار شبكة التوجيه الخبير الأكثر فعالية لمعالجة كل رمز. ومن المثير للاهتمام أنه يتم اختيار خبيرين لكل رمز، ويتم دمج مخرجاتهما.

لنماذج MoE نقاط قوة ونقاط ضعف. فهي تتفوق من حيث كفاءة الحوسبة خلال مرحلة ما قبل التدريب، ولكنها قد تتعرض للإفراط في التجهيز أثناء الضبط الدقيق. ويشير الإفراط في التجهيز، في هذا السياق، إلى اعتماد النماذج بشكل مفرط على بيانات التدريب وإعادة إنتاجها حرفيًا في الاستجابات. ومن الناحية الإيجابية، توفر نماذج MoE أوقات استدلال أسرع نظرًا لاستخدام مجموعة فرعية فقط من الخبراء أثناء الاستدلال. 

ومع ذلك، لا تزال هذه الأنظمة تتطلب ذاكرة وصول عشوائي (RAM) كافية لاستيعاب نموذج مكون من 47 مليار معلمة. ويختلف هذا العدد عن العدد المتوقع وهو 56 مليار معلمة، نظرًا لمشاركة العديد من المعلمات بين خبراء، وعدم ضرب جميع المعلمات السبعة مليارات في كل خبير بثمانية.

سهل الاستخدام وسهل الوصول إليه

من أبرز ميزات Mixtral 8x7B سهولة استخدامه. فهو قابل للضبط بالكامل، ومتاح للنشر من قِبل أي شخص لديه جهاز كمبيوتر قوي. يمكن للمستخدمين تشغيله محليًا باستخدام LM Studio، مما يضمن تحكمًا مثاليًا في سلوك النموذج. بالإضافة إلى ذلك، يمكن تفعيل حواجز الحماية للحماية من المحتوى الضار المحتمل، مع أنها غير مُفعّلة افتراضيًا. هذا يضمن تجربة ذكاء اصطناعي آمنة ومسؤولة.

انظر أيضًا:  شركات تصنيع السيارات الطائرة تصبح أحدث صيحة رائجة، بفضل ترامب

لمن يفضلون عدم تشغيل Mixtral محليًا أو يفتقرون إلى متطلبات الأجهزة، فهو متوفر على Hugging Face. يأتي تطبيق Hugging Face مزودًا بحواجز أمان افتراضية، مما يوفر تجربة مشابهة لـ ChatGPT 3.5 من حيث الأداء ونطاق الاستعلامات التي يمكنه التعامل معها. لا يتخصص Mixtral 8x7B في مجال محدد؛ بل هو نموذج متعدد الاستخدامات وشامل للغة كبيرة.

مستقبل الذكاء الاصطناعي التوليدي

مع استمرار تطور التكنولوجيا، شهد عام ٢٠٢٣ طفرة في نماذج الذكاء الاصطناعي التوليدية. ومن المتوقع أن يتطور هذا المجال أكثر في العام المقبل، مع إمكانية إصدار المزيد من النماذج والتحسينات المستمرة. ومع انتشار الشائعات حول OpenAI وإمكانية ظهور الذكاء الاصطناعي العام، فإن عالم الذكاء الاصطناعي مهيأ لمزيد من التطورات المثيرة في المستقبل القريب. ومن المتوقع أن تكون Mixtral جزءًا من هذا المستقبل. 

لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية .

رابط المشاركة:

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. موقع Cryptopolitan أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصح tron بإجراء بحث مستقل dent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

الأكثر قراءة

جارٍ تحميل المقالات الأكثر قراءة...

ابقَ على اطلاع دائم بآخر أخبار العملات الرقمية، واحصل على تحديثات يومية في بريدك الإلكتروني

اختيار المحرر

جارٍ تحميل مقالات مختارة من قبل المحرر...

- النشرة الإخبارية الخاصة بالعملات الرقمية التي تُبقيك في الصدارة -

تتحرك الأسواق بسرعة.

نتحرك بشكل أسرع.

اشترك في النشرة اليومية Cryptopolitan واحصل على تحليلات دقيقة ومناسبة وفي الوقت المناسب حول العملات المشفرة مباشرة إلى بريدك الوارد.

انضم الآن ولن
تفوتك أي خطوة.

ادخل. احصل على الحقائق.
تقدم للأمام.

اشترك في CryptoPolitan