في خطوةٍ هامة نحو دمج الذكاء الاصطناعي التوليدي في أجهزة آيفون، قدّم باحثو آبل طريقةً رائدةً لتجاوز قيود ذاكرة الوصول العشوائي (RAM) في الأجهزة المحمولة. تُعرف نماذج اللغة الكبيرة (LLMs)، مثل ChatGPT 4 من OpenAI، بمتطلباتها الحسابية الهائلة، والتي تتطلب عادةً خوادم قوية لمعالجة بياناتها. مع ذلك، يُقدّم نظام Gemini AI من جوجل، المصمم لمنافسة GPT-4، نسخةً مُحسّنةً تُسمى "Nano" مُصممة خصيصًا للهواتف الذكية. تستخدم هذه النسخة تقنيات التكميم لتقليل عدد معلمات النموذج إلى 1.8 مليار أو 3.6 مليار. حاليًا، تُشغّل إحدى هذه النسخ المُحسّنة هواتف جوجل Pixel 8 Pro، المتوفرة الآن بسعر مُخفّض قدره 799 دولارًا أمريكيًا على أمازون.
رغم أن جهود جوجل مع معالج Gemini Nano تُعدّ تطورًا هامًا، إلا أن كوالكوم تدّعي أن معالجها الجديد Snapdragon 8 من الجيل الثالث يدعم نماذج الذكاء الاصطناعي التوليدية ذات المستويات المنخفضة (LLMs) التي تصل إلى 10 مليارات مُعامل. ورغم أن هذا يتجاوز قدرات جوجل، إلا أنه لا يزال أقل بكثير من 1.7 تريليون مُعامل اللازمة لأداء GPT-4 الأمثل. وعلى الرغم من أن التكميم يُسهّل المعالجة على معالجات الأجهزة المحمولة، إلا أنه يُؤثر سلبًا على الدقة والفعالية. لذا، تُصبح القدرة على استيعاب نماذج LLMs الأكبر حجمًا على الأجهزة المحمولة أمرًا بالغ الأهمية لتحسين أدائها.
حل أبل المبتكر
يُعدّ الطلب الكبير على ذاكرة الوصول العشوائي (RAM) أحد أبرز التحديات التي تواجه تمكين الذكاء الاصطناعي التوليدي على الهواتف الذكية. فعلى سبيل المثال، يتطلب نموذج LLM مُختزل إلى 8 بت لكل مُعامل مع 7 مليارات مُعامل، مثل نموذج Llama 2 من Meta المدعوم بمعالج Snapdragon 8 من الجيل الثالث، هاتفًا ذكيًا بذاكرة وصول عشوائي لا تقل عن 7 جيجابايت. وتتميز سلسلة هواتف iPhone 15 Pro من Apple بذاكرة وصول عشوائي سعتها 8 جيجابايت، مما يُشير إلى أن نموذج LLM من تطوير Apple، مثل Llama 2، سيقترب من الحد الأقصى لقدرات iPhone الحالية. وللتغلب على هذا القيد المتعلق بذاكرة الوصول العشوائي، ابتكر باحثو Apple نهجًا جديدًا.
زيادة سعة التخزين الفلاشية
في ورقة بحثية بعنوان "استدلال نموذج اللغة الكبير بكفاءة عالية مع ذاكرة محدودة"، يقدم باحثو الذكاء الاصطناعي التوليدي في شركة آبل طريقةً تستفيد من ذاكرة الفلاش في أجهزة آيفون لتكملة ذاكرة الوصول العشوائي (RAM) المدمجة في الجهاز. ورغم أن عرض نطاق ذاكرة الفلاش لا يضاهي عرض نطاق ذاكرة الوصول العشوائي LDDR5/X، فقد تغلب باحثو آبل ببراعة على هذا القيد المتأصل. تجمع طريقتهم بين "التقسيم إلى نوافذ"، الذي يمكّن نموذج الذكاء الاصطناعي من إعادة استخدام البيانات المُعالجة مسبقًا والمخزنة على ذاكرة الفلاش، و"تجميع الصفوف والأعمدة"، وهي تقنية تُنظّم بيانات نموذج اللغة الكبير على النحو الأمثل لزيادة سرعة القراءة.
الآفاق المستقبلية للذكاء الاصطناعي التوليدي على أجهزة آيفون
رغم أن آبل لم تكشف بعد عن منتج يعتمد على تقنية LLM، تشير الشائعات إلى قرب إطلاق نسخة محسّنة من سيري تعتمد على هذه التقنية، ومن المقرر أن تظهر لأول مرة مع نظام iOS 18 وتعمل على أجهزة آيفون 16 برو من الجيل التالي. وعندها، ستكون آبل في وضع مثالي لاستخدام أسلوبها المبتكر في توسيع ذاكرة الوصول العشوائي (RAM) لتقديم نموذج LLM بأكبر عدد ممكن من المعلمات التي يمكن تنفيذها على الجهاز نفسه.
مشهد الذكاء الاصطناعي التوليدي في عام 2024
مع استمرار قطاع التكنولوجيا في سعيه الحثيث لتطوير قدرات الذكاء الاصطناعي التوليدي، يبدو أن عام 2024 سيشهد انتشار هذه التقنية على نطاق واسع في الهواتف الذكية. وتستعد سامسونج، الرائدة في هذا المجال، للكشف عن عروضها المحسّنة في مجال الذكاء الاصطناعي التوليدي مع إطلاق سلسلة Galaxy S24 الشهر المقبل. وبفضل تقنية زيادة ذاكرة الوصول العشوائي (RAM) المبتكرة من آبل، والتطورات القادمة من سامسونج، يمكن للمستهلكين توقع نقلة نوعية في قدرات وأداء الميزات المدعومة بالذكاء الاصطناعي على أجهزتهم المحمولة.
يمثل نهج آبل الرائد في التغلب على قيود ذاكرة الوصول العشوائي (RAM) وتسهيل تنفيذ نماذج اللغة الكبيرة على الجهاز خطوةً هامة نحو جعل الذكاء الاصطناعي التوليدي واقعًا ملموسًا على أجهزة آيفون. ومع اشتداد المنافسة، وتقدم معالجات جوجل جيميني نانو وكوالكوم سنابدراجون 8 من الجيل الثالث، يُتوقع أن يكون عام 2024 نقطة تحول في دمج الذكاء الاصطناعي التوليدي في تجارب استخدام الهواتف الذكية اليومية.

