4 étapes pour installer et exécuter Deepseek R1 localement

29 janvier 2025

White Line

Ibiam Wayas

White Line

Contrairement à Chatgpt, qui n'était pas ouvert à l'origine pour un usage local, l'IA profonde maintenant tendance peut fonctionner localement. Mais il y a quelques conditions préalables.

White Line

GPU: NVIDIA GPU avec au moins 12 Go de VRAM pour les modèles légers ou au moins 24 Go pour les modèles plus lourds. RAM: au moins 16 Go de mémoire système (32 Go recommandée). Espace disque: 500 Go (peut varier selon les modèles.

White Line

Olllama est simplement un outil léger pour gérer et exécuter les modèles AI localement sur votre machine.

Étape 1: Installer Olllama

White Line

Donc, téléchargez une version compatible d'Ollma sur le site officiel et installez-la sur votre machine, en suivant les instructions données.

White Line

A confirmé l'installation en ouvrant un nouveau terminal et en exécutant la commande «Olllama --version», cela devrait renvoyer la version d'Olllama, si elle est installée correctement.

Étape 2: Vérifiez l'installation d'Ollma

Étape 3: Déployer le modèle R1 Deepseek

White Line

La prochaine chose est de télécharger le modèle Deepseek R1 avec votre type de modèle préféré, comme 8b, 70b, etc.

White Line

Vous pouvez facilement le faire sur Ollama en ouvrant votre terminal et en tapant la commande: «Olllama Run Deepseek-R1» et le code du modèle.

Étape 4: Commencez à courir en profondeur R1

White Line

La commande démarre une invite pour télécharger le modèle R1. Une fois le téléchargement terminé, Olllama ouvriramaticune console pour vous pour taper et envoyer une invite au modèle. C'est là que vous pouvez discuter avec R1 localement.

Suivant

White Line

Deepseek est-il meilleur que Chatgpt?