29 janvier 2025
Ibiam Wayas
Contrairement à ChatGPT, qui n'était initialement pas accessible en local, l'IA DeepSeek, désormais très populaire, peut être exécutée localement. Cependant, certaines conditions préalables sont requises.
Carte graphique : Carte graphique NVIDIA avec au moins 12 Go de VRAM pour les modèles d’entrée de gamme ou au moins 24 Go pour les modèles plus performants. Mémoire vive : Au moins 16 Go de mémoire système (32 Go recommandés). Espace disque : 500 Go (peut varier selon les modèles).
Ollama est simplement un outil léger permettant de gérer et d'exécuter des modèles d'IA localement sur votre machine.
Téléchargez donc une version compatible d'Ollama depuis le site officiel et installez-la sur votre ordinateur en suivant les instructions fournies.
J'ai confirmé l'installation en ouvrant un nouveau terminal et en exécutant la commande « ollama --version ». Cela devrait renvoyer la version d'ollama, si l'installation s'est déroulée correctement.
L'étape suivante consiste à télécharger le modèle DeepSeek R1 avec le type de modèle que vous préférez, tel que 8b, 70b, etc.
Vous pouvez facilement le faire sur Ollama en ouvrant votre terminal et en tapant la commande : « ollama run deepseek-r1 » et le CODE MODÈLE.
La commande lance une invite de téléchargement du modèle R1. Une fois le téléchargement terminé, ollama ouvriramaticune console vous permettant de saisir du texte et d'envoyer des instructions au modèle. Vous pourrez ainsi dialoguer localement avec R1.
À suivre