4 个步骤即可在本地安装和运行 DeepSeek R1

2025年1月29日

White Line

伊比亚姆·瓦亚斯

White Line

与最初不开放本地使用的 ChatGPT 不同,目前流行的 DeepSeek AI 可以本地运行。但它有一些前提条件。.

White Line

显卡:NVIDIA 显卡,轻量级机型至少需要 12GB 显存,大型机型至少需要 24GB 显存。 内存:至少 16GB 系统内存(建议 32GB)。 硬盘空间:500GB(不同机型可能有所不同)。

White Line

Ollama 只是一个轻量级工具,用于在您的本地计算机上管理和运行 AI 模型。.

步骤 1:安装 Ollama

White Line

因此,请从官方网站下载兼容版本的 Ollama,并按照给定的说明将其安装到您的计算机上。.

White Line

通过打开一个新的终端并运行命令“ollama --version”来确认安装。如果安装正确,这应该会返回ollama的版本。.

步骤 2:验证 Ollama 安装

步骤 3:部署 DeepSeek R1 模型

White Line

接下来,下载您喜欢的模型类型(例如 8b、70b 等)的 DeepSeek R1 模型。.

White Line

您可以通过打开终端并输入命令“ollama run deepseek-r1”和模型代码,轻松地在 Ollama 上执行此操作。.

步骤 4:开始运行 DeepSeek R1

White Line

该命令会提示您下载 R1 模型。下载完成后,ollama 会matic打开一个控制台,供您输入指令并向模型发送消息。您可以在这里与 R1 进行本地通信。.

接下来

White Line

DeepSeek 比 ChatGPT 更好吗?