¿Estás buscando una alternativa para trabajar con IA: gratuita, potente y que cuide tu privacidad? ¡Bienvenido a DeepSeek-R1! En esta guía (inspirada en mi propia experiencia y algunas referencias de la comunidad) aprenderás:
DeepSeek-R1 es un modelo de IA open-source, gratis y diseñado para tareas que requieran mucho razonamiento (por ejemplo, resolución de problemas de programación, matemáticas avanzadas o procesos lógicos). La ventaja principal es que todo puede ejecutarse en tu computadora, sin mandar tus datos a servidores externos, lo que brinda privacidad y te ahorra los costos mensuales de otros proveedores populares.
1º. Aprendizaje por Refuerzo (RL) vs. Entrenamiento Supervisado
DeepSeek-R1 se “entrena” resolviendo problemas por prueba y error, sin depender tanto de datos de ejemplo etiquetados de forma tradicional. Este proceso realza la capacidad de auto-verificación y reasoning de largo alcance.
2º. Eficiencia de costos
3º. Flexibilidad open-source
Al ser abierto, no hay restricciones para integrarlo en tus proyectos. Se puede tunear, combinar con otras bibliotecas o hasta crear tu propio servicio web basado en DeepSeek-R1.
Ollama es una herramienta que permite gestionar y correr modelos de lenguaje localmente. Es como un “docker” de modelos de AI
en Linux
curl -fsSL https://ollama.com/install.sh | sh
ollama -v # Verificá la versión instalada
o en MAC
brew install ollama
brew services start ollama # Inicia el servicio de ollama con brew para no tener que ejecutar ´ollama serve´
ollama -v # Verificá la versión instalada
1.5B parámetros (aprox. 1.1GB):
ollama run deepseek-r1:1.5b
7B parámetros (aprox. 4.7GB):
ollama run deepseek-r1
70B parámetros (requiere +24GB de VRAM):
ollama run deepseek-r1:70b
Versión completa 671B (para entusiastas con +300GB de VRAM):
ollama run deepseek-r1:671b
Cuando ejecutes deepseek vas a ver que empieza a descargar el modelo, y luego tendrás una terminal como la siguiente:
Tip: Si tu PC no dispone de tanta capacidad, probá primero la versión de 1.5B y luego empezá a probar modelos más grandes. El 1.5B pesa cerca de 1GB, tiene muchas limitaciones, pero es funcional. En la página de ollama podes ver otros modelos compatibles.
Para quienes prefieran una UI amigable, podés usar Open Web UI y ver tus chats con DeepSeek-R1 dentro de un entorno visual.
a. Instalá Docker siguiendo las instrucciones en docker.com (descargá la versión para tu sistema operativo).
b. Corré el contenedor de Open Web UI:
docker run -d -p --network=host \
-v open-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
Cuidado con alguna de estas reglas, son solo en modo desarrollo. Por ejemplo la de
--network=host
te hace compartir la red entre tu pc y el contenedor de docker.
c. Accedé a la interfaz en http://localhost:8080
.
Una vez instalado vas a poder crearte tu cuenta de admin con la cuál podrás gestionar esta plataforma.
d. Seleccionádeepseek-r1:1.5b
y listo: vas a poder conversar con DeepSeek-R1 sin mandar nada a servidores remotos.
Una vez que Ollama descargó el modelo y tenés la interfaz corriendo (opcional), ya podés empezar a hacerle preguntas desde la terminal o desde la UI. Para la terminal:
ollama run deepseek-r1:1.5b
DeepSeek-R1 tiene dos modos de integración básicos: local (con Ollama) y en la nube (con el API oficial).
Te voy a mostrar ejemplos de como conectarte a esas API’s desde tu código en python:
Podés hacer que Ollama actúe como un endpoint compatible con OpenAI, apuntando tus scripts de Python a tu instancia local:
import openai
# Conectarse a Ollama
client = openai.Client(
base_url="http://localhost:11434/v1",
api_key="ollama"
)
response = client.chat.completions.create(
model="deepseek-r1:1.5b", # Reemplazá 1.5b con la versión elegida
messages=[{"role": "user", "content": "Make a \"Hello World\" with go"}],
temperature=0.7
)
Si necesitás escalar para aplicaciones grandes, DeepSeek ofrece su propia API, parecida al estilo de OpenAI:
import openai
client = openai.OpenAI(
base_url="https://api.deepseek.com/v1",
api_key="TU_API_KEY"
)
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=[{"role": "user", "content": "Crea un script de web scraping con manejo de errores"}],
max_tokens=1000
)
Con esto, tu aplicación se conecta a los servidores de DeepSeek, al estilo “Software as a Service”.
DeepSeek-R1 es una opción perfecta si querés:
Además, su enfoque en razonamiento profundo lo hace ideal para tareas complejas. Probalo con problemas de código, preguntas matemáticas difíciles o en cualquier proyecto que requiera un plus de capacidad lógica. ¡Vas a ver cómo le saca ventaja a muchas opciones comerciales y te deja un poco más tranquilo con la privacidad de tus datos!
Si llegaste hasta aquí es porque quieres seguir aprendiendo de inteligencia artificial. Te recomiendo separar tu cupo para la charla privada sobre AI con Freddy Vega.
También puedes explorar la Escuela de Data Science e Inteligencia Artificial en donde encontrarás rutas de aprendizaje sobre:
¡Gracias por la guía! Fue muy útil para instalar y ejecutar DeepSeek-R1 localmente. Sin embargo, me encontré con un pequeño problema al intentar integrar Open WebUI con Docker en macOS. El contenedor no podía conectarse a Ollama porque
127.0.0.1
dentro del contenedor no apuntaba a mi máquina host.Después de investigar un poco, descubrí que en macOS (y Windows) Docker proporciona un nombre de host especial llamado host.docker.internal, que permite que los contenedores accedan a servicios que se ejecutan en la máquina host. Modifiqué el comando de Docker para usar host.docker.internal en lugar de
127.0.0.1
, y funcionó perfectamente.Este es el comando que usé:
docker run -d -p 3000:8080 \ -v open-webui:/app/backend/data \ -e OLLAMA_BASE_URL= (no me dejo poner el link pero es del host.docker.internal con el puerto) \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
Gracias nuevamente por la guía
¿Con esta corrección te permite seleccionar el modelo?
Hola oscar si si me dejo en mac os cuando en la variable le pongo OLLAMA_BASE_URL = http : // host.docker.internal: 1143 quitale los espacios XD
En la documentación oficial https://github.com/open-webui/open-webui pueden ver mas formas de iniciar la interfaz web
Te tocó usar host.docker.internal porque no especificaste el parámetro:
Que precisamente permite al contenedor compartir la red con el host, y así poder usar localhost o 127.0.0.1 dentro del contenedor
Me funcionó en linux usando el comando que esta en la documentación del proyecto en gibhub
docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
En MacOS, cuando se instala desde brew:
Se puede crear un servicio (para no tener que estar iniciando constantemente el server de ollama) para que corra en background:
Si reciben este error al momento de instalar ollama en Mac:
ERROR: This script is intended to run on Linux only.
Pueden instalarlo usando Brew:
brew install ollama
Y para los “No developers”, el paso 5, usa el mismo comando que usaste en el paso 2, dado que si instalaste el módelo más pequeño (es decir, el primero de 1.1Gb), y corres el comando del paso 5, te descargará el modelo de 4.7Gb.
Gracias por el aporte Faber!!!
Ya actualicé el post gracias a tus comentarios 😉
¿como puedo correrlo sin gpu?
Con WSL2 le falta un parametero
--add-host=host.docker.internal:host-gateway
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
El repositorio de DeeSeek esta en: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/README.md
Una de las funciones de ChatGPT Plus que me encanta es la posibilidad de crear mis propios GPTs solo añadiéndoles archivos. ¿Cómo sería la forma de hacer algo parecido en un ambiente local?
Gracias! Que requerimientos tiene que tener la compu para que haga algo decente?
No mucho, yo tengo un Ryzen 5 3400g con 32gb de RAM y una RTX 3060 y tengo el deepseek R1 de 7b corriendo solo con CPU porque queria hacer la prueba, y el resultado es bastante decente, con los mismos settings tengo corriendo llama 3.0 1.5b y va rapidisimo (puedes tener muchos modelos a la vez corriendo
Sabes como hacer que use la GPU en vez de la CPU en el task manager me muestra que la GPu esta sin uso
Esto si que cambiara las cosas vamos a trabajarlo y sacarle provecho
Puedes ajustar la temperatura para hacerlo más o menos creativo. Por ejemplo:
bash
<ollamarundeepseek-r1:1.5b-t 0.8>
Temperatura baja (0.2-0.5) = Respuestas más directas y precisas.
Temperatura alta (0.7-1.0) = Respuestas más creativas y variadas.
Esto es usando bash en linux
En caso de que reciban este error:
could not connect to ollama app, is it running?
e.g: ollama run deepseek-r1
Super bien detallado y claro, gracias por compartir.
¿Podrían hacer un blog para generar embeddings y RAG con deepseek?
Hasta ahora no he encontrado mucho para poder pasarle más información y que sea todavía más personalizado y preciso en sus respuestas para casos de usos específicos/privados.
¡Gracias!
Muchas gracias profe, soy novato en la programación pero con su tutorial fue muy claro, en pocos minutos pude instalar en local el 7b y luego eliminarlo y quedarme por el 1.5b jajaja hardware.
Gracias por el tutorial, lo probé y no se imaginan el lio tuvo para responderme cuales eran la capitales de colombia, el 70 % de la respuesta fue correcta, en uno de sus razonamientos cuando cuando la corregí, decía que había consultado en Google maps para confirmar que lo que escribió el usuario (Yo) era cierto. Aun me preguntó que provecho se le puede sacar a ejecutar un modelo con estas imprecisiones y si se le puede corregir.
Ustedes que le han preguntado, las respuestas son correctas?
En mi caso, primero intenté instalar DeepSeek con LM Studio, pero después de la instalación, al buscar un modelo de IA, no pude instalar nada. Al verificar el hardware, me indicó que mi CPU es incompatible.
Decidí entonces instalar WSL en mi Ubuntu para instalar DeepSeek siguiendo este tutorial, pero tuve varios problemas:
✔ curl -fsSL https://ollama.com/install.sh | sh
❌ ollama -v # Verificar la versión instalada
WARNING: systemd is not running
Warning: could not connect to a running Ollama instance
Así lo solucioné:
Habilitar systemd en WSL.
En PowerShell, no reconocía la instrucción wsl --version. Al parecer tenía una versión muy antigua de WSL, así que tuve que ejecutar: wsl -l -v
Luego intenté actualizar WSL con: wsl --update, pero tampoco reconoció la instrucción.
Tuve que reinstalar WSL con: wsl --install
Ahora sí actualicé WSL con wsl --update.
Verifiqué el archivo de configuración wsl.conf con sudo nano /etc/wsl.conf.
Debe contener:
[boot] systemd=true
Reinicié WSL con: wsl --shutdown
Verifiqué que systemd esté activo con: systemctl list-unit-files --type=service. (Esto debería mostrar una lista de servicios gestionados por systemd, confirmando que está activo.)
✔ Inicié el servicio de Ollama con: sudo systemctl start ollama. 😃
✔ ollama run deepseek-r1:1.5b
✔ ollama run deepseek-r1
Nuevamente, el proceso de descarga demoró. Le pregunté: “Hola, ¿Quién eres?” y se demoró en responder. Esta vez, su respuesta fue coherente y sin errores en el idioma.
Le pedí: “Dame ideas para un guion para hacer un video sobre ti (DeepSeek) para YouTube. Debe ser máximo de 5 minutos.” Se demoró como 15 minutos en responder. Su proceso de respuesta me lo mostró en inglés. Luego me dio el guion en español, pero aún mostró algunos problemas con el idioma.
Para salir de DeepSeek en la terminal, Ctrl + D me funcionó. Cuando escribía “bye”, no salía de DeepSeek.
Tengo el mismo problema pero yo tengo instalado wsl2 no wsl y no sé si al intentar instalar wsl vaya haber conflictos o errores con wsl2, quizá no. Te agradecería una indicación sobre este caso.
Hola tengo una distribusion de debian y tenia los mismos problemas y era por no tener una dependencia y se puede arreglar con:
sudo apt install dbus
Usando una version de Debian
Este modulo o dependencia (realmente no lo se) dbus, es quien se comunica con la virtualización asi que primero la instale
Hice los sig paso:
sudo apt install dbus
Luego prendí el dbus con:
sudo systemctl start dbus.service
Debian instalado o virtualizado ? a mi no me dio problemas tambien tengo Debian
En Debian con 16 Gb de ram y una APU ryzon 3 3200 G se ejecuta sin problemas la versión 7B, es pazas de realizar calculo medianamente complejos y te los explica , si el input es en español te responde en español la mayor parte ( a veces escribe en ingles o chino en medio de la frase) no consume tanta ram pero el procesador esta en 100% en todos los hilos .
estoy intentando hacer que sea mas directa para intentar ahorrar recursos de procesador , por el momento me gusta mucho y es alucinante que pueda hacerlo en un cpu del 2019 con una placa base gama baja y 16 Gb de Ram
Hola, saben cual seria la diferencia entre ejecutarlo de esta manera como la guía o usando ML Studio? Gracias
Yo tengo una duda, como integro deep Seek a entornos como vscode o en una aplicación local que me permita ejecutar consultas? hay mas configuraciones? que blog puedo visitar?
Una consulta estimados, puedo usar esto entrenandolo con datos de la empresa donde trabajo? ¿Qué tan seguro es usar esto con data privada? ¿De alguna manera mandan los datos a China aunque lo ejecute en local?
tengo una duda ya que no soy experto en el tema, puedo ejecutar el modelo dentro de mi compu en local sin necesidad de estar conectado a un servicio externo y sin internet, y también otra duda puedo crear una api gratuita con esto con un servidor en local, disculpen es que a penas estoy aprendiendo del tema y es confuso para mi.
Exactamente compa, todo eso es posible hacerlo asi… aunque con un equipo que lo soporte
Buenas tardes tengo una pregunta… al momento de yo descargar deepseek se descarga con su opcion de search? es decir con la capacidad de buscar en internet?
A 1.5B de parámetros, no es tan bueno en entender el lenguaje de procesamiento natural (NLTK) por sus siglas en inglés.
Hola! En caso de que no inicie la descarga desde el enlace:
"curl -fsSL https://ollama.com/install.sh | sh"
pueden intentar cambiar el dminio de “.com” a ".ai"
así:
“curl -fsSL https://ollama.ai/install.sh | sh”
Para quienes tengan problema con integrar Open WebUI con Docker en macOS. Prueben con este código:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
😄
Aqui pueden ver el error ortografico al manejar las respuesta.

Tengo el mismo problema, yo instalé el de 7b y estoy usando una extensión de google chrome para mejor la interfaz (page assist). El programa va lento y con muchos errores gramaticales y uso de varios idiomas en una misma respuesta. La verdad ayudaría mucho que subieran un video con la explicación de como usar esta IA.
Tengo una duda, al seguir estas instrucciones obtendria de igual manera los archivos .safetensors? porque lo que quiero hacer es importar este modelo a Bedrock en AWS pero al intentar descargar todos los archivos de aqui https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main me quedé sin espacio en mi computador. Necesito subir los safetensors a un bucket de S3 para empezar luego el proceso de importacion a Bedrock. Como le podria hacer?
ya lo pude descargar, pero no se como hacerlo correr… aiuda.
Cuando se termina de descargar empieza a correr automáticamente, o te refieres a cómo puedes volver a correrlo?
Hola, puedes decirme como actualizar open-webui desde docker sin perder config o datos? Lo instale por mi cuenta la semana pasada sabiendo casi nada de docker, me ayudaria un monton tu respuesta
Gracias por el aporte, ya instalé en local el servicio, pero en la version 1.5 y 1 pero veo que al manejar los prompt en español o en inglés me genera muchos errores ortográficos e incluso agrega caracteres en chino. E igual no me reconoce el flag de temperatura para mejorar su forma en que conteste las prompt.
Ya lo instale en mi maquina Deepseek R1:7b con este tutorial en mi caso con ArchLinux (Kernel:Linux 6.12.10-arch1-1) instalacion fisica. Muchas Gracias
Hola ¿Que requisitos debe tener mi servidor de linux ubuntu para correr el modelo deepseek R1?
Estoy ahora intentando ver como puedo usar el modelo mas pequeño de Deepseek para hacerlo correr local dentro de un app hecho en Flutter. Tengo ya unos usos bien interesantes para un minijuego dentro de un app para un cliente que vengo haciendo hace un tiempo y cayo como anillo al dedo.
Espero conseguirlo jeje
@kaajavi ¡muchas gracias por esta guia!
Excelente, muchas gracias x compartir, la estoy ejecutando desde win11