أربع خطوات لتثبيت وتشغيل برنامج DeepSeek R1 محليًا

29 يناير 2025

White Line

إبيام واياس

White Line

على عكس ChatGPT، الذي لم يكن متاحًا للاستخدام المحلي في البداية، يمكن تشغيل DeepSeek AI، الذي يحظى بشعبية كبيرة الآن، محليًا. ولكن هناك بعض المتطلبات الأساسية.

White Line

وحدة معالجة الرسومات: وحدة معالجة رسومات من NVIDIA بذاكرة فيديو لا تقل عن 12 جيجابايت للطرازات الخفيفة، أو 24 جيجابايت على الأقل للطرازات الثقيلة. ذاكرة الوصول العشوائي: 16 جيجابايت على الأقل (32 جيجابايت مُوصى بها). مساحة القرص: 500 جيجابايت (قد تختلف باختلاف الطرازات).

White Line

أولاما هي ببساطة أداة خفيفة الوزن لإدارة وتشغيل نماذج الذكاء الاصطناعي محليًا على جهازك.

الخطوة 1: تثبيت أولاما

White Line

لذا، قم بتنزيل نسخة متوافقة من برنامج Ollama من الموقع الرسمي وقم بتثبيتها على جهازك، باتباع التعليمات المذكورة.

White Line

تم تأكيد التثبيت عن طريق فتح نافذة طرفية جديدة وتشغيل الأمر "ollama --version". من المفترض أن يعرض هذا الأمر إصدار ollama، إذا تم تثبيته بشكل صحيح.

الخطوة الثانية: التحقق من تثبيت أولاما

الخطوة 3: نشر نموذج DeepSeek R1

White Line

الخطوة التالية هي تنزيل نموذج DeepSeek R1 بنوع النموذج المفضل لديك، مثل 8b أو 70b، إلخ.

White Line

يمكنك القيام بذلك بسهولة على Ollama عن طريق فتح الطرفية وكتابة الأمر: "ollama run deepseek-r1" ورمز النموذج.

الخطوة الرابعة: بدء تشغيل DeepSeek R1

White Line

يبدأ الأمر بظهور نافذة لتنزيل نموذج R1. بمجرد اكتمال التنزيل، سيفتح برنامج ollamamaticنافذة طرفية لتتمكن من كتابة وإرسال الأوامر إلى النموذج. من هناك يمكنك التواصل مع R1 محليًا.

التالي

White Line

هل DeepSeek أفضل من ChatGPT؟