29 gennaio 2025
Ibiam Wayas
A differenza di Chatgpt, che originariamente non era aperto per uso locale, l'IA Deepseek ora di tendenza può funzionare a livello locale. Ma ci sono alcuni prerequisiti.
GPU: NVIDIA GPU con almeno 12 GB di VRAM per modelli di luce o almeno 24 GB per modelli più pesanti. RAM: almeno 16 GB di memoria di sistema (32 GB consigliati). Spazio su disco: 500 GB (può variare tra i modelli.
Ollama è semplicemente uno strumento leggero per gestire ed eseguire modelli AI a livello locale sulla macchina.
Quindi, scarica una versione compatibile di Ollama dal sito Web ufficiale e installalo sulla macchina, seguendo le istruzioni fornite.
Conferma l'installazione aprendo un nuovo terminale ed eseguendo il comando "Ollama -Version" Questo dovrebbe restituire la versione di Ollama, se installato correttamente.
La prossima cosa è scaricare il modello DeepSeek R1 con il tipo di modello preferito, come 8b, 70b, ecc.
Puoi facilmente farlo su Ollama aprendo il tuo terminale e digitando il comando: "Ollama esegui DeepSeek-R1" e il codice modello.
Il comando avvia un prompt per scaricare il modello R1. Una volta completato il download, Ollama aprirà una console Allymaticper digitare e inviare un prompt al modello. È qui che puoi chattare con R1 a livello locale.
Il prossimo passo