4 passaggi per installare ed eseguire DeepSeek R1 a livello locale

29 gennaio 2025

White Line

Ibiam Wayas

White Line

A differenza di Chatgpt, che originariamente non era aperto per uso locale, l'IA Deepseek ora di tendenza può funzionare a livello locale. Ma ci sono alcuni prerequisiti.

White Line

GPU: NVIDIA GPU con almeno 12 GB di VRAM per modelli di luce o almeno 24 GB per modelli più pesanti. RAM: almeno 16 GB di memoria di sistema (32 GB consigliati). Spazio su disco: 500 GB (può variare tra i modelli.

White Line

Ollama è semplicemente uno strumento leggero per gestire ed eseguire modelli AI a livello locale sulla macchina.

Passaggio 1: installa Ollama

White Line

Quindi, scarica una versione compatibile di Ollama dal sito Web ufficiale e installalo sulla macchina, seguendo le istruzioni fornite.

White Line

Conferma l'installazione aprendo un nuovo terminale ed eseguendo il comando "Ollama -Version" Questo dovrebbe restituire la versione di Ollama, se installato correttamente.

Passaggio 2: verifica l'installazione di Ollama

Passaggio 3: distribuire il modello DeepSeek R1

White Line

La prossima cosa è scaricare il modello DeepSeek R1 con il tipo di modello preferito, come 8b, 70b, ecc.

White Line

Puoi facilmente farlo su Ollama aprendo il tuo terminale e digitando il comando: "Ollama esegui DeepSeek-R1" e il codice modello.

Passaggio 4: inizia a eseguire DeepSeek R1

White Line

Il comando avvia un prompt per scaricare il modello R1. Una volta completato il download, Ollama aprirà una console Allymaticper digitare e inviare un prompt al modello. È qui che puoi chattare con R1 a livello locale.

Il prossimo passo

White Line

DeepSeek è meglio di Chatgpt?