141

Cómo instalar y ejecutar DeepSeek-R1 de manera local

12001Puntos

hace 15 días

¿Estás buscando una alternativa para trabajar con IA: gratuita, potente y que cuide tu privacidad? ¡Bienvenido a DeepSeek-R1! En esta guía (inspirada en mi propia experiencia y algunas referencias de la comunidad) aprenderás:

  • Qué es DeepSeek-R1 y por qué puede ser una gran opción.
  • Cómo instalarlo usando Ollama para correrlo en tu propia computadora.
  • Cómo integrarlo con Docker y una interfaz web para mayor comodidad.
  • Opciones para integrarlo a proyectos, tanto de manera local como en la nube.

Qué es DeepSeek-R1

DeepSeek-R1 es un modelo de IA open-source, gratis y diseñado para tareas que requieran mucho razonamiento (por ejemplo, resolución de problemas de programación, matemáticas avanzadas o procesos lógicos). La ventaja principal es que todo puede ejecutarse en tu computadora, sin mandar tus datos a servidores externos, lo que brinda privacidad y te ahorra los costos mensuales de otros proveedores populares.


1. ¿Por qué DeepSeek-R1 es especial?

1º. Aprendizaje por Refuerzo (RL) vs. Entrenamiento Supervisado
DeepSeek-R1 se “entrena” resolviendo problemas por prueba y error, sin depender tanto de datos de ejemplo etiquetados de forma tradicional. Este proceso realza la capacidad de auto-verificación y reasoning de largo alcance.

2º. Eficiencia de costos

  • Si lo corres localmente, podés usar versiones “distilled” de entre 1.5B y 70B parámetros que funcionan incluso en GPU comunes (o con un poco de truco, en CPU potentes). Esto evita cuotas mensuales altas o costos por token.
  • La versión completa alcanza hasta 671B parámetros, ideal para tareas súper complejas (Ahí si tenés que tener hardware de gama alta $$$).

3º. Flexibilidad open-source
Al ser abierto, no hay restricciones para integrarlo en tus proyectos. Se puede tunear, combinar con otras bibliotecas o hasta crear tu propio servicio web basado en DeepSeek-R1.


2. Requisitos previos para instalar y correr DeepSeek-R1

  • Conocimientos básicos de la terminal o línea de comandos.
  • Tener un sistema Linux/macOS (o en Windows con WSL2).
  • Docker instalado si planeás usar la interfaz web.
  • Ollama para descargar y correr el modelo localmente (igualmente en este blog te ayudo a instalarlo).

3. Instalando Ollama

Ollama es una herramienta que permite gestionar y correr modelos de lenguaje localmente. Es como un “docker” de modelos de AI

  1. Instalación:

en Linux

curl -fsSL https://ollama.com/install.sh | sh
ollama -v # Verificá la versión instalada

o en MAC

brew install ollama
brew services start ollama # Inicia el servicio de ollama con brew para no tener que ejecutar ´ollama serve´
ollama -v # Verificá la versión instalada
  1. Descarga de DeepSeek-R1 con Ollama
    Elegí el modelo “distilled” que se ajuste a tu GPU (o CPU).
    • 1.5B parámetros (aprox. 1.1GB):

      ollama run deepseek-r1:1.5b
      
    • 7B parámetros (aprox. 4.7GB):

      ollama run deepseek-r1
      
    • 70B parámetros (requiere +24GB de VRAM):

      ollama run deepseek-r1:70b
      
    • Versión completa 671B (para entusiastas con +300GB de VRAM):

      ollama run deepseek-r1:671b
      

Cuando ejecutes deepseek vas a ver que empieza a descargar el modelo, y luego tendrás una terminal como la siguiente:

Terminal-al-descargar-DeepSeek-R1

Tip: Si tu PC no dispone de tanta capacidad, probá primero la versión de 1.5B y luego empezá a probar modelos más grandes. El 1.5B pesa cerca de 1GB, tiene muchas limitaciones, pero es funcional. En la página de ollama podes ver otros modelos compatibles.


4. Montando la interfaz web con Docker

Para quienes prefieran una UI amigable, podés usar Open Web UI y ver tus chats con DeepSeek-R1 dentro de un entorno visual.
a. Instalá Docker siguiendo las instrucciones en docker.com (descargá la versión para tu sistema operativo).
b. Corré el contenedor de Open Web UI:

docker run -d -p --network=host \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main  

Cuidado con alguna de estas reglas, son solo en modo desarrollo. Por ejemplo la de --network=host te hace compartir la red entre tu pc y el contenedor de docker.

c. Accedé a la interfaz en http://localhost:8080.
Una vez instalado vas a poder crearte tu cuenta de admin con la cuál podrás gestionar esta plataforma.

d. Seleccionádeepseek-r1:1.5b y listo: vas a poder conversar con DeepSeek-R1 sin mandar nada a servidores remotos.

open-webui con deepseek-r1:1.5b

5. Probando DeepSeek-R1 en tu máquina

Una vez que Ollama descargó el modelo y tenés la interfaz corriendo (opcional), ya podés empezar a hacerle preguntas desde la terminal o desde la UI. Para la terminal:

ollama run deepseek-r1:1.5b

6. Integrándolo en tus proyectos

DeepSeek-R1 tiene dos modos de integración básicos: local (con Ollama) y en la nube (con el API oficial).
Te voy a mostrar ejemplos de como conectarte a esas API’s desde tu código en python:

6.1 Uso local (privacidad total)

Podés hacer que Ollama actúe como un endpoint compatible con OpenAI, apuntando tus scripts de Python a tu instancia local:

import openai

# Conectarse a Ollama
client = openai.Client(
    base_url="http://localhost:11434/v1",
    api_key="ollama"
)

response = client.chat.completions.create(
    model="deepseek-r1:1.5b",  # Reemplazá 1.5b con la versión elegida
    messages=[{"role": "user", "content": "Make a \"Hello World\" with go"}],
    temperature=0.7
)

6.2 Uso en la nube (API oficial de DeepSeek-R1)

Si necesitás escalar para aplicaciones grandes, DeepSeek ofrece su propia API, parecida al estilo de OpenAI:

import openai

client = openai.OpenAI(
    base_url="https://api.deepseek.com/v1",
    api_key="TU_API_KEY"
)

response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[{"role": "user", "content": "Crea un script de web scraping con manejo de errores"}],
    max_tokens=1000
)

Con esto, tu aplicación se conecta a los servidores de DeepSeek, al estilo “Software as a Service”.


7. Conclusiones sobre el uso de DeepSeek-R1

DeepSeek-R1 es una opción perfecta si querés:

  • Evitar costos mensuales exorbitantes
  • Mantener tus datos dentro de tu propia infraestructura
  • Tener la libertad de ajustar y mejorar el modelo para tus proyectos

Además, su enfoque en razonamiento profundo lo hace ideal para tareas complejas. Probalo con problemas de código, preguntas matemáticas difíciles o en cualquier proyecto que requiera un plus de capacidad lógica. ¡Vas a ver cómo le saca ventaja a muchas opciones comerciales y te deja un poco más tranquilo con la privacidad de tus datos!

Continúa aprendiendo sobre inteligencia artificial

Charla-privada-Freddy.jpg

Si llegaste hasta aquí es porque quieres seguir aprendiendo de inteligencia artificial. Te recomiendo separar tu cupo para la charla privada sobre AI con Freddy Vega.

También puedes explorar la Escuela de Data Science e Inteligencia Artificial en donde encontrarás rutas de aprendizaje sobre:


Referencias y lecturas recomendadas sobre DeepSeek-R1 y su instalación

Javier
Javier
kaajavi

12001Puntos

hace 15 días

Todas sus entradas
Escribe tu comentario
+ 2
Ordenar por:
12
55175Puntos
15 días

¡Gracias por la guía! Fue muy útil para instalar y ejecutar DeepSeek-R1 localmente. Sin embargo, me encontré con un pequeño problema al intentar integrar Open WebUI con Docker en macOS. El contenedor no podía conectarse a Ollama porque 127.0.0.1 dentro del contenedor no apuntaba a mi máquina host.

Después de investigar un poco, descubrí que en macOS (y Windows) Docker proporciona un nombre de host especial llamado host.docker.internal, que permite que los contenedores accedan a servicios que se ejecutan en la máquina host. Modifiqué el comando de Docker para usar host.docker.internal en lugar de 127.0.0.1, y funcionó perfectamente.

Este es el comando que usé:

docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL= (no me dejo poner el link pero es del host.docker.internal con el puerto) \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Gracias nuevamente por la guía

3
12558Puntos
15 días

¿Con esta corrección te permite seleccionar el modelo?

2
55175Puntos
14 días

Hola oscar si si me dejo en mac os cuando en la variable le pongo OLLAMA_BASE_URL = http : // host.docker.internal: 1143 quitale los espacios XD

1
1443Puntos
12 días

Te tocó usar host.docker.internal porque no especificaste el parámetro:

--network=host

Que precisamente permite al contenedor compartir la red con el host, y así poder usar localhost o 127.0.0.1 dentro del contenedor

2
11 días

Me funcionó en linux usando el comando que esta en la documentación del proyecto en gibhub

docker run -d -p 3000:8080 \
    --add-host=host.docker.internal:host-gateway \
    -v open-webui:/app/backend/data \
    --name open-webui \
    --restart always \
    ghcr.io/open-webui/open-webui:main
6
8259Puntos
13 días

En MacOS, cuando se instala desde brew:

brew install ollama

Se puede crear un servicio (para no tener que estar iniciando constantemente el server de ollama) para que corra en background:

brew services start ollama
6
88Puntos
15 días

Si reciben este error al momento de instalar ollama en Mac:

ERROR: This script is intended to run on Linux only.

Pueden instalarlo usando Brew:

brew install ollama

3
88Puntos
15 días

Y para los “No developers”, el paso 5, usa el mismo comando que usaste en el paso 2, dado que si instalaste el módelo más pequeño (es decir, el primero de 1.1Gb), y corres el comando del paso 5, te descargará el modelo de 4.7Gb.

1
12001Puntos
15 días

Gracias por el aporte Faber!!!

2
12001Puntos
15 días

Ya actualicé el post gracias a tus comentarios 😉

5
25277Puntos
15 días

¿como puedo correrlo sin gpu?

4
20253Puntos
13 días

Con WSL2 le falta un parametero

--add-host=host.docker.internal:host-gateway
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
4
6133Puntos
15 días

Una de las funciones de ChatGPT Plus que me encanta es la posibilidad de crear mis propios GPTs solo añadiéndoles archivos. ¿Cómo sería la forma de hacer algo parecido en un ambiente local?

3
10671Puntos
13 días

Gracias! Que requerimientos tiene que tener la compu para que haga algo decente?

2
6963Puntos
12 días

No mucho, yo tengo un Ryzen 5 3400g con 32gb de RAM y una RTX 3060 y tengo el deepseek R1 de 7b corriendo solo con CPU porque queria hacer la prueba, y el resultado es bastante decente, con los mismos settings tengo corriendo llama 3.0 1.5b y va rapidisimo (puedes tener muchos modelos a la vez corriendo

1
6019Puntos
3 días

Sabes como hacer que use la GPU en vez de la CPU en el task manager me muestra que la GPu esta sin uso

3
69951Puntos
14 días

Esto si que cambiara las cosas vamos a trabajarlo y sacarle provecho

3
21539Puntos
13 días

Puedes ajustar la temperatura para hacerlo más o menos creativo. Por ejemplo:

bash

<ollamarundeepseek-r1:1.5b-t 0.8>

Temperatura baja (0.2-0.5) = Respuestas más directas y precisas.

Temperatura alta (0.7-1.0) = Respuestas más creativas y variadas.

2
21539Puntos
13 días

Esto es usando bash en linux

3
1001Puntos
14 días

En caso de que reciban este error:
could not connect to ollama app, is it running?

  1. ejecutar ollama serve
  2. Abrir otra terminal y ejecutar: ollama run (modelo)
    e.g: ollama run deepseek-r1
3
8474Puntos
15 días

Super bien detallado y claro, gracias por compartir.

2
7717Puntos
13 días

¿Podrían hacer un blog para generar embeddings y RAG con deepseek?
Hasta ahora no he encontrado mucho para poder pasarle más información y que sea todavía más personalizado y preciso en sus respuestas para casos de usos específicos/privados.
¡Gracias!

1
3095Puntos
7 días

Muchas gracias profe, soy novato en la programación pero con su tutorial fue muy claro, en pocos minutos pude instalar en local el 7b y luego eliminarlo y quedarme por el 1.5b jajaja hardware.

1
3881Puntos
9 días

Gracias por el tutorial, lo probé y no se imaginan el lio tuvo para responderme cuales eran la capitales de colombia, el 70 % de la respuesta fue correcta, en uno de sus razonamientos cuando cuando la corregí, decía que había consultado en Google maps para confirmar que lo que escribió el usuario (Yo) era cierto. Aun me preguntó que provecho se le puede sacar a ejecutar un modelo con estas imprecisiones y si se le puede corregir.

Ustedes que le han preguntado, las respuestas son correctas?

1
34926Puntos
13 días

En mi caso, primero intenté instalar DeepSeek con LM Studio, pero después de la instalación, al buscar un modelo de IA, no pude instalar nada. Al verificar el hardware, me indicó que mi CPU es incompatible.

Decidí entonces instalar WSL en mi Ubuntu para instalar DeepSeek siguiendo este tutorial, pero tuve varios problemas:

  • curl -fsSL https://ollama.com/install.sh | sh

  • ollama -v # Verificar la versión instalada

    • WARNING: systemd is not running

    • Warning: could not connect to a running Ollama instance

    • Así lo solucioné:

      • Habilitar systemd en WSL.

      • En PowerShell, no reconocía la instrucción wsl --version. Al parecer tenía una versión muy antigua de WSL, así que tuve que ejecutar: wsl -l -v

      • Luego intenté actualizar WSL con: wsl --update, pero tampoco reconoció la instrucción.

      • Tuve que reinstalar WSL con: wsl --install

      • Ahora sí actualicé WSL con wsl --update.

      • Verifiqué el archivo de configuración wsl.conf con sudo nano /etc/wsl.conf.

        • Debe contener:

        • [boot]
          systemd=true
      • Reinicié WSL con: wsl --shutdown

      • Verifiqué que systemd esté activo con: systemctl list-unit-files --type=service. (Esto debería mostrar una lista de servicios gestionados por systemd, confirmando que está activo.)

        ✔ Inicié el servicio de Ollama con: sudo systemctl start ollama. 😃

    • ollama run deepseek-r1:1.5b

      • El proceso de descarga demoró. Le pregunté: “¿Hola, quién eres?” y se demoró en responder. Su respuesta tuvo muchos errores en el idioma.

      ollama run deepseek-r1

      • Nuevamente, el proceso de descarga demoró. Le pregunté: “Hola, ¿Quién eres?” y se demoró en responder. Esta vez, su respuesta fue coherente y sin errores en el idioma.

      • Le pedí: “Dame ideas para un guion para hacer un video sobre ti (DeepSeek) para YouTube. Debe ser máximo de 5 minutos.” Se demoró como 15 minutos en responder. Su proceso de respuesta me lo mostró en inglés. Luego me dio el guion en español, pero aún mostró algunos problemas con el idioma.

      • Para salir de DeepSeek en la terminal, Ctrl + D me funcionó. Cuando escribía “bye”, no salía de DeepSeek.

2
21015Puntos
12 días

Tengo el mismo problema pero yo tengo instalado wsl2 no wsl y no sé si al intentar instalar wsl vaya haber conflictos o errores con wsl2, quizá no. Te agradecería una indicación sobre este caso.

1
711Puntos
11 días

Hola tengo una distribusion de debian y tenia los mismos problemas y era por no tener una dependencia y se puede arreglar con:
sudo apt install dbus

2
711Puntos
11 días

Usando una version de Debian
Este modulo o dependencia (realmente no lo se) dbus, es quien se comunica con la virtualización asi que primero la instale
Hice los sig paso:

sudo apt install dbus

Luego prendí el dbus con:

sudo systemctl start dbus.service
1
5281Puntos
9 días

Debian instalado o virtualizado ? a mi no me dio problemas tambien tengo Debian

1
5281Puntos
9 días

En Debian con 16 Gb de ram y una APU ryzon 3 3200 G se ejecuta sin problemas la versión 7B, es pazas de realizar calculo medianamente complejos y te los explica , si el input es en español te responde en español la mayor parte ( a veces escribe en ingles o chino en medio de la frase) no consume tanta ram pero el procesador esta en 100% en todos los hilos .

Captura desde 2025-02-02 11-49-27.png

estoy intentando hacer que sea mas directa para intentar ahorrar recursos de procesador , por el momento me gusta mucho y es alucinante que pueda hacerlo en un cpu del 2019 con una placa base gama baja y 16 Gb de Ram

1
10718Puntos
11 días

Hola, saben cual seria la diferencia entre ejecutarlo de esta manera como la guía o usando ML Studio? Gracias

1
11 días

Yo tengo una duda, como integro deep Seek a entornos como vscode o en una aplicación local que me permita ejecutar consultas? hay mas configuraciones? que blog puedo visitar?

1
1927Puntos
11 días

Una consulta estimados, puedo usar esto entrenandolo con datos de la empresa donde trabajo? ¿Qué tan seguro es usar esto con data privada? ¿De alguna manera mandan los datos a China aunque lo ejecute en local?

1
12 días

tengo una duda ya que no soy experto en el tema, puedo ejecutar el modelo dentro de mi compu en local sin necesidad de estar conectado a un servicio externo y sin internet, y también otra duda puedo crear una api gratuita con esto con un servidor en local, disculpen es que a penas estoy aprendiendo del tema y es confuso para mi.

1
12 días

Exactamente compa, todo eso es posible hacerlo asi… aunque con un equipo que lo soporte

1
12 días

Buenas tardes tengo una pregunta… al momento de yo descargar deepseek se descarga con su opcion de search? es decir con la capacidad de buscar en internet?

1
12 días

A 1.5B de parámetros, no es tan bueno en entender el lenguaje de procesamiento natural (NLTK) por sus siglas en inglés.

1
7Puntos
12 días

Para quienes tengan problema con integrar Open WebUI con Docker en macOS. Prueben con este código:

docker run -d -p 3000:8080 
--add-host=host.docker.internal:host-gateway 
-v open-webui:/app/backend/data 
--name open-webui 
--restart always ghcr.io/open-webui/open-webui:main

😄

1
11223Puntos
12 días

Aqui pueden ver el error ortografico al manejar las respuesta.
DeepSeek.png

1
2222Puntos
12 días

Tengo el mismo problema, yo instalé el de 7b y estoy usando una extensión de google chrome para mejor la interfaz (page assist). El programa va lento y con muchos errores gramaticales y uso de varios idiomas en una misma respuesta. La verdad ayudaría mucho que subieran un video con la explicación de como usar esta IA.

1
326Puntos
12 días

Tengo una duda, al seguir estas instrucciones obtendria de igual manera los archivos .safetensors? porque lo que quiero hacer es importar este modelo a Bedrock en AWS pero al intentar descargar todos los archivos de aqui https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main me quedé sin espacio en mi computador. Necesito subir los safetensors a un bucket de S3 para empezar luego el proceso de importacion a Bedrock. Como le podria hacer?

1
1003Puntos
13 días

ya lo pude descargar, pero no se como hacerlo correr… aiuda.

1
2772Puntos
12 días

Cuando se termina de descargar empieza a correr automáticamente, o te refieres a cómo puedes volver a correrlo?

1
6963Puntos
12 días

Hola, puedes decirme como actualizar open-webui desde docker sin perder config o datos? Lo instale por mi cuenta la semana pasada sabiendo casi nada de docker, me ayudaria un monton tu respuesta

1
11223Puntos
13 días

Gracias por el aporte, ya instalé en local el servicio, pero en la version 1.5 y 1 pero veo que al manejar los prompt en español o en inglés me genera muchos errores ortográficos e incluso agrega caracteres en chino. E igual no me reconoce el flag de temperatura para mejorar su forma en que conteste las prompt.

1
14067Puntos
13 días

Ya lo instale en mi maquina Deepseek R1:7b con este tutorial en mi caso con ArchLinux (Kernel:Linux 6.12.10-arch1-1) instalacion fisica. Muchas Gracias

1
484Puntos
13 días

Hola ¿Que requisitos debe tener mi servidor de linux ubuntu para correr el modelo deepseek R1?

1
6994Puntos
13 días

Estoy ahora intentando ver como puedo usar el modelo mas pequeño de Deepseek para hacerlo correr local dentro de un app hecho en Flutter. Tengo ya unos usos bien interesantes para un minijuego dentro de un app para un cliente que vengo haciendo hace un tiempo y cayo como anillo al dedo.

Espero conseguirlo jeje

1
21539Puntos
13 días

@kaajavi ¡muchas gracias por esta guia!

1
13857Puntos
13 días

Excelente, muchas gracias x compartir, la estoy ejecutando desde win11