29 janvier 2025
Ibiam Wayas
Contrairement à Chatgpt, qui n'était pas ouvert à l'origine pour un usage local, l'IA profonde maintenant tendance peut fonctionner localement. Mais il y a quelques conditions préalables.
GPU: NVIDIA GPU avec au moins 12 Go de VRAM pour les modèles légers ou au moins 24 Go pour les modèles plus lourds. RAM: au moins 16 Go de mémoire système (32 Go recommandée). Espace disque: 500 Go (peut varier selon les modèles.
Olllama est simplement un outil léger pour gérer et exécuter les modèles AI localement sur votre machine.
Donc, téléchargez une version compatible d'Ollma sur le site officiel et installez-la sur votre machine, en suivant les instructions données.
A confirmé l'installation en ouvrant un nouveau terminal et en exécutant la commande «Olllama --version», cela devrait renvoyer la version d'Olllama, si elle est installée correctement.
La prochaine chose est de télécharger le modèle Deepseek R1 avec votre type de modèle préféré, comme 8b, 70b, etc.
Vous pouvez facilement le faire sur Ollama en ouvrant votre terminal et en tapant la commande: «Olllama Run Deepseek-R1» et le code du modèle.
La commande démarre une invite pour télécharger le modèle R1. Une fois le téléchargement terminé, Olllama ouvriramaticune console pour vous pour taper et envoyer une invite au modèle. C'est là que vous pouvez discuter avec R1 localement.
Suivant