DeepSeek R1をローカルにインストールして実行する4つのステップ

2025年1月29日

White Line

イビアム・ワヤス

White Line

もともと現地で使用されていなかったChatGptとは異なり、現在トレンドのDeepSeek AIはローカルで実行できます。しかし、いくつかの前提条件があります。

White Line

GPU:Lightモデルの場合は少なくとも12GBのVRAM、またはより重いモデルでは少なくとも24GBのNVIDIA GPU。 RAM:少なくとも16GBのシステムメモリ(32GBが推奨)。 ディスクスペース:500 GB(モデル間で異なる場合があります。

White Line

Ollamaは、マシン上でAIモデルをローカルに管理および実行するための軽量ツールです。

ステップ1:オラマをインストールします

White Line

したがって、公式ウェブサイトからOllamaの互換性のあるバージョンをダウンロードして、指定された指示に従ってマシンにインストールしてください。

White Line

新しいターミナルを開き、コマンド「Ollama -version」を実行することにより、インストールを確認しました。

ステップ2:Ollamaのインストールを確認します

ステップ3:Deepseek R1モデルを展開します

White Line

次のことは、8B、70Bなどの好みのモデルタイプでDeepSeek R1モデルをダウンロードすることです。

White Line

端末を開き、コマンドを入力することで、Ollamaで簡単にそれを行うことができます:「Ollama Run deepseek-r1」とモデルコード。

ステップ4:DeepSeek R1の実行を開始します

White Line

コマンドは、R1モデルをダウンロードするプロンプトを開始します。ダウンロードが完了すると、Ollamaはコンソールをmatic、モデルにプロンプ​​トを入力して送信するためのコンソールを開きます。そこで、R1とローカルでチャットできます。

次は次へ

White Line

DeepseekはChatGptよりも優れていますか?