29 de enero de 2025
Ibiam Wayas
A diferencia de ChatGPT, que originalmente no estaba disponible para uso local, la IA DeepSeek, ahora de moda, sí puede ejecutarse localmente. Sin embargo, existen algunos requisitos previos.
GPU: GPU NVIDIA con al menos 12 GB de VRAM para modelos ligeros o al menos 24 GB para modelos más pesados. RAM: Al menos 16 GB de memoria del sistema (se recomiendan 32 GB). Espacio en disco: 500 GB (puede variar según el modelo).
Ollama es simplemente una herramienta liviana para administrar y ejecutar modelos de IA localmente en su máquina.
Entonces, descargue una versión compatible de Ollama del sitio web oficial e instálela en su máquina, siguiendo las instrucciones dadas.
Confirme la instalación abriendo una nueva terminal y ejecutando el comando “ollama --version”. Esto debería devolver la versión de ollama, si se instaló correctamente.
El siguiente paso es descargar el modelo DeepSeek R1 con su tipo de modelo preferido, como 8b, 70b, etc.
Puedes hacerlo fácilmente en Ollama abriendo tu terminal y escribiendo el comando: “ollama run deepseek-r1” y el CÓDIGO DEL MODELO.
El comando inicia un mensaje para descargar el modelo R1. Una vez completada la descarga, ollama abrirámaticuna consola para que escribas y envíes un mensaje al modelo. Ahí es donde puedes chatear con R1 localmente.
Siguiente