4 étapes pour installer et exécuter DeepSeek R1 en local

29 janvier 2025

White Line

Ibiam Wayas

White Line

Contrairement à ChatGPT, qui n'était initialement pas accessible en local, l'IA DeepSeek, désormais très populaire, peut être exécutée localement. Cependant, certaines conditions préalables sont requises.

White Line

Carte graphique : Carte graphique NVIDIA avec au moins 12 Go de VRAM pour les modèles d’entrée de gamme ou au moins 24 Go pour les modèles plus performants. Mémoire vive : Au moins 16 Go de mémoire système (32 Go recommandés). Espace disque : 500 Go (peut varier selon les modèles).

White Line

Ollama est simplement un outil léger permettant de gérer et d'exécuter des modèles d'IA localement sur votre machine.

Étape 1 : Installer Ollama

White Line

Téléchargez donc une version compatible d'Ollama depuis le site officiel et installez-la sur votre ordinateur en suivant les instructions fournies.

White Line

J'ai confirmé l'installation en ouvrant un nouveau terminal et en exécutant la commande « ollama --version ». Cela devrait renvoyer la version d'ollama, si l'installation s'est déroulée correctement.

Étape 2 : Vérifier l’installation d’Ollama

Étape 3 : Déploiement du modèle DeepSeek R1

White Line

L'étape suivante consiste à télécharger le modèle DeepSeek R1 avec le type de modèle que vous préférez, tel que 8b, 70b, etc.

White Line

Vous pouvez facilement le faire sur Ollama en ouvrant votre terminal et en tapant la commande : « ollama run deepseek-r1 » et le CODE MODÈLE.

Étape 4 : Lancer DeepSeek R1

White Line

La commande lance une invite de téléchargement du modèle R1. Une fois le téléchargement terminé, ollama ouvriramaticune console vous permettant de saisir du texte et d'envoyer des instructions au modèle. Vous pourrez ainsi dialoguer localement avec R1.

À suivre

White Line

DeepSeek est-il meilleur que ChatGPT ?