4 passaggi per installare ed eseguire DeepSeek R1 in locale

29 gennaio 2025

White Line

Ibiam Wayas

White Line

A differenza di ChatGPT, che originariamente non era disponibile per l'uso locale, l'attuale DeepSeek AI può essere eseguito localmente. Ma ci sono alcuni prerequisiti.

White Line

GPU: GPU NVIDIA con almeno 12 GB di VRAM per i modelli leggeri o almeno 24 GB per i modelli più pesanti. RAM: almeno 16 GB di memoria di sistema (32 GB consigliati). Spazio su disco: 500 GB (può variare a seconda del modello).

White Line

Ollama è semplicemente uno strumento leggero per gestire ed eseguire modelli di intelligenza artificiale localmente sul tuo computer.

Passaggio 1: installa Ollama

White Line

Quindi, scarica una versione compatibile di Ollama dal sito Web ufficiale e installala sul tuo computer, seguendo le istruzioni fornite.

White Line

Confermare l'installazione aprendo un nuovo terminale ed eseguendo il comando "ollama --version". Questo dovrebbe restituire la versione di ollama, se installato correttamente.

Passaggio 2: verifica dell'installazione di Ollama

Passaggio 3: distribuire il modello DeepSeek R1

White Line

Il passo successivo è scaricare il modello DeepSeek R1 con il tipo di modello preferito, ad esempio 8b, 70b, ecc.

White Line

Puoi farlo facilmente su Ollama aprendo il terminale e digitando il comando: "ollama run deepseek-r1" e il CODICE MODELLO.

Passaggio 4: avviare l'esecuzione di DeepSeek R1

White Line

Il comando avvia un prompt per scaricare il modello R1. Una volta completato il download, ollama apriràmaticuna console in cui potrai digitare e inviare un prompt al modello. Da lì potrai chattare con R1 localmente.

Prossimo

White Line

DeepSeek è migliore di ChatGPT?