DeepSeek R1을 로컬에 설치하고 실행하는 4단계

2025년 1월 29일

White Line

이비암 와야스

White Line

원래 로컬 사용이 허용되지 않았던 ChatGPT와 달리, 최근 인기를 얻고 있는 DeepSeek AI는 로컬에서 실행할 수 있습니다. 하지만 몇 가지 전제 조건이 있습니다.

White Line

GPU: 경량 모델의 ​​경우 최소 12GB, 고사양 모델의 경우 최소 24GB의 VRAM을 갖춘 NVIDIA GPU. RAM: 최소 16GB의 시스템 메모리(32GB 권장). 디스크 공간: 500GB(모델에 따라 다를 수 있음).

White Line

Ollama는 사용자의 컴퓨터에서 AI 모델을 로컬로 관리하고 실행할 수 있는 간단한 도구입니다.

1단계: Ollama를 설치합니다

White Line

그러므로 공식 웹사이트에서 호환되는 Ollama 버전을 다운로드하고 제공된 지침에 따라 컴퓨터에 설치하십시오.

White Line

새 터미널을 열고 "ollama --version" 명령어를 실행하여 설치를 확인했습니다. 설치가 제대로 되었다면 이 명령어는 ollama의 버전을 반환합니다.

2단계: Ollama 설치 확인

3단계: DeepSeek R1 모델 배포

White Line

다음으로는 원하는 모델 유형(예: 8b, 70b 등)으로 DeepSeek R1 모델을 다운로드하세요.

White Line

Ollama에서 터미널을 열고 "ollama run deepseek-r1" 명령어와 모델 코드를 입력하면 쉽게 실행할 수 있습니다.

4단계: DeepSeek R1 실행 시작

White Line

이 명령어를 실행하면 R1 모델 다운로드 프롬프트가 나타납니다. 다운로드가 완료되면 ollama가matic으로 콘솔 창을 열어 모델에 프롬프트를 입력하고 보낼 수 있도록 합니다. 이곳에서 R1과 로컬로 대화할 수 있습니다.

다음은

White Line

DeepSeek이 ChatGPT보다 더 나은가요?