29 gennaio 2025
Ibiam Wayas
A differenza di ChatGPT, che originariamente non era disponibile per l'uso locale, l'attuale DeepSeek AI può essere eseguito localmente. Ma ci sono alcuni prerequisiti.
GPU: GPU NVIDIA con almeno 12 GB di VRAM per i modelli leggeri o almeno 24 GB per i modelli più pesanti. RAM: almeno 16 GB di memoria di sistema (32 GB consigliati). Spazio su disco: 500 GB (può variare a seconda del modello).
Ollama è semplicemente uno strumento leggero per gestire ed eseguire modelli di intelligenza artificiale localmente sul tuo computer.
Quindi, scarica una versione compatibile di Ollama dal sito Web ufficiale e installala sul tuo computer, seguendo le istruzioni fornite.
Confermare l'installazione aprendo un nuovo terminale ed eseguendo il comando "ollama --version". Questo dovrebbe restituire la versione di ollama, se installato correttamente.
Il passo successivo è scaricare il modello DeepSeek R1 con il tipo di modello preferito, ad esempio 8b, 70b, ecc.
Puoi farlo facilmente su Ollama aprendo il terminale e digitando il comando: "ollama run deepseek-r1" e il CODICE MODELLO.
Il comando avvia un prompt per scaricare il modello R1. Una volta completato il download, ollama apriràmaticuna console in cui potrai digitare e inviare un prompt al modello. Da lì potrai chattare con R1 localmente.
Prossimo