4 pasos para instalar y ejecutar DeepSeek R1 localmente

29 de enero de 2025

White Line

Ibiam Wayas

White Line

A diferencia de ChatGPT, que originalmente no estaba disponible para uso local, la IA DeepSeek, ahora de moda, sí puede ejecutarse localmente. Sin embargo, existen algunos requisitos previos.

White Line

GPU: GPU NVIDIA con al menos 12 GB de VRAM para modelos ligeros o al menos 24 GB para modelos más pesados. RAM: Al menos 16 GB de memoria del sistema (se recomiendan 32 GB). Espacio en disco: 500 GB (puede variar según el modelo).

White Line

Ollama es simplemente una herramienta liviana para administrar y ejecutar modelos de IA localmente en su máquina.

Paso 1: Instalar Ollama

White Line

Entonces, descargue una versión compatible de Ollama del sitio web oficial e instálela en su máquina, siguiendo las instrucciones dadas.

White Line

Confirme la instalación abriendo una nueva terminal y ejecutando el comando “ollama --version”. Esto debería devolver la versión de ollama, si se instaló correctamente.

Paso 2: Verificar la instalación de Ollama

Paso 3: Implementar el modelo DeepSeek R1

White Line

El siguiente paso es descargar el modelo DeepSeek R1 con su tipo de modelo preferido, como 8b, 70b, etc.

White Line

Puedes hacerlo fácilmente en Ollama abriendo tu terminal y escribiendo el comando: “ollama run deepseek-r1” y el CÓDIGO DEL MODELO.

Paso 4: Comience a ejecutar DeepSeek R1

White Line

El comando inicia un mensaje para descargar el modelo R1. Una vez completada la descarga, ollama abrirámaticuna consola para que escribas y envíes un mensaje al modelo. Ahí es donde puedes chatear con R1 localmente.

Siguiente

White Line

¿Es DeepSeek mejor que ChatGPT?