في ظل التطور السريع للذكاء الاصطناعي، برز لاعب جديد نسبيًا على الساحة، مثيرًا ضجة في عالم التكنولوجيا. يُذهل نظام Mixtral 8x7B، الذي طورته شركة الذكاء الاصطناعي الفرنسية Mistral AI، الجميع بنهجه الفريد وقدراته المذهلة. يستكشف هذا المقال ما يميز نظام Mixtral 8x7B ولماذا يُحدث ضجة في مجتمع الذكاء الاصطناعي.
ميكسترال 8x7B: تغيير جذري
بينما عالم التكنولوجيا بتحديث جوجل جيميني لـ Bard، دخل Mixtral 8x7B بهدوء إلى الساحة. ما يميزه هو استخدامه لمزيج من الخبراء (MoE) لتوليد استجابات شبيهة بالاستجابة البشرية. يختلف هذا النهج اختلافًا كبيرًا عن نماذج مثل ChatGPT وGoogle Bard. والجدير بالذكر أن Mixtral 8x7B يتميز بنموذج هائل يضم 46.7 مليار معلمة، إلا أنه لا يتطلب سوى جزء ضئيل من موارد الأجهزة.
لا يُستهان بأداء Mixtral 8x7B. فهو يُضاهي، بل ويتفوق،dentعلى نموذج ChatGPT الشهير GPT-3.5 ونموذج Meta Llama 2 70B. هذا النموذج مفتوح المصدر مرخص بموجب Apache 2.0، مما يسمح لأي شخص بالوصول إليه واستخدامه. وهو لا يقتصر على لغة واحدة، إذ يعمل بسلاسة باللغات الإنجليزية والفرنسية والإيطالية والألمانية والإسبانية. علاوة على ذلك، يتميز بقدرته على توليد الشيفرة البرمجية.
تعرف على Mistral AI - العقول المدبرة وراء ثورة الذكاء الاصطناعي
شركة ميسترال للذكاء الاصطناعي، العقل المدبر وراء ميكسترال، هي شركة ذكاء اصطناعي فرنسية أسسها باحثون ذوو خبرة سابقة في كلٍّ من ميتا وجوجل. هذا العام، حققت ميسترال للذكاء الاصطناعي نجاحًا باهرًا بحصولها على تمويل يقارب 450 مليون يورو. كان إطلاق ميكسترال 8x7B، أحدث طرازاتها، بعيدًا كل البعد عن المألوف، حيث نُشر رابط تورنت بسيط على تويتر .
المغناطيس:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F% https://t.co/uV4WVdtpwZ %3A6969%2Fannounce&tr=http%3A%2F%https://t.co/g0m9cEUz0T%3A80%2Fannounce
— ميسترال أيه آي (@MistralAI) 8 ديسمبر 2023
RELEASE a6bbd9affe0c2725c1b7410d66833e24
ميزة وزارة التعليم
يستخدم ميكسترال بنية MoE لمعالجة الرموز الواردة، وتوزيعها على خبراء مختلفين داخل النظام. كل خبير هو في الأساس شبكة عصبية، ويضم ميكسترال 8x7B ثمانية منها. تتيح هذه البنية إنشاء MoEs هرمية، حيث يمكن للخبير أن يكون MoE آخر. عند إرسال طلب إلى ميكسترال 8x7B، تختار شبكة التوجيه الخبير الأكثر فعالية لمعالجة كل رمز. ومن المثير للاهتمام أنه يتم اختيار خبيرين لكل رمز، ويتم دمج مخرجاتهما.
لنماذج MoE نقاط قوة ونقاط ضعف. فهي تتفوق من حيث كفاءة الحوسبة خلال مرحلة ما قبل التدريب، ولكنها قد تتعرض للإفراط في التجهيز أثناء الضبط الدقيق. ويشير الإفراط في التجهيز، في هذا السياق، إلى اعتماد النماذج بشكل مفرط على بيانات التدريب وإعادة إنتاجها حرفيًا في الاستجابات. ومن الناحية الإيجابية، توفر نماذج MoE أوقات استدلال أسرع نظرًا لاستخدام مجموعة فرعية فقط من الخبراء أثناء الاستدلال.
ومع ذلك، لا تزال هذه الأنظمة تتطلب ذاكرة وصول عشوائي (RAM) كافية لاستيعاب نموذج مكون من 47 مليار معلمة. ويختلف هذا العدد عن العدد المتوقع وهو 56 مليار معلمة، نظرًا لمشاركة العديد من المعلمات بين خبراء، وعدم ضرب جميع المعلمات السبعة مليارات في كل خبير بثمانية.
سهل الاستخدام وسهل الوصول إليه
من أبرز ميزات Mixtral 8x7B سهولة استخدامه. فهو قابل للضبط بالكامل، ومتاح للنشر من قِبل أي شخص لديه جهاز كمبيوتر قوي. يمكن للمستخدمين تشغيله محليًا باستخدام LM Studio، مما يضمن تحكمًا مثاليًا في سلوك النموذج. بالإضافة إلى ذلك، يمكن تفعيل حواجز الحماية للحماية من المحتوى الضار المحتمل، مع أنها غير مُفعّلة افتراضيًا. هذا يضمن تجربة ذكاء اصطناعي آمنة ومسؤولة.
لمن يفضلون عدم تشغيل Mixtral محليًا أو يفتقرون إلى متطلبات الأجهزة، فهو متوفر على Hugging Face. يأتي تطبيق Hugging Face مزودًا بحواجز أمان افتراضية، مما يوفر تجربة مشابهة لـ ChatGPT 3.5 من حيث الأداء ونطاق الاستعلامات التي يمكنه التعامل معها. لا يتخصص Mixtral 8x7B في مجال محدد؛ بل هو نموذج متعدد الاستخدامات وشامل للغة كبيرة.
مستقبل الذكاء الاصطناعي التوليدي
مع استمرار تطور التكنولوجيا، شهد عام ٢٠٢٣ طفرة في نماذج الذكاء الاصطناعي التوليدية. ومن المتوقع أن يتطور هذا المجال أكثر في العام المقبل، مع إمكانية إصدار المزيد من النماذج والتحسينات المستمرة. ومع انتشار الشائعات حول OpenAI وإمكانية ظهور الذكاء الاصطناعي العام، فإن عالم الذكاء الاصطناعي مهيأ لمزيد من التطورات المثيرة في المستقبل القريب. ومن المتوقع أن تكون Mixtral جزءًا من هذا المستقبل.

