Hoy en día, utilizar Inteligencia Artificial como herramienta para crear código es algo común y normal en el flujo de trabajo. Desde GitHub Copilot, que está integrado de forma nativa en VSCode, hasta extensiones que permiten agregar soporte a múltiples LLMs, estas herramientas hacen que el proceso de desarrollo sea mucho más fácil.
Gracias a Ollama y la extensión Continue.dev, ahora puedes ejecutar modelos de IA localmente en Visual Studio Code y obtener asistencia inteligente sin costo alguno.
A continuación, te explico cómo instalar y configurar DeepSeek-R1 para que puedas integrarlo en tu flujo de trabajo.
Lo primero que debes hacer es seguir los pasos necesarios para instalar y ejecutar DeepSeek-R1 en tu computadora. No es necesario completar todos los pasos de configuración avanzada; basta con que logres que el modelo funcione correctamente desde la terminal.
Una vez que Ollama esté en funcionamiento, vamos a comprobar que podemos comunicarnos con DeepSeek-R1 y verificar que el modelo responde correctamente. Para ello, ejecuta el siguiente comando en tu terminal:
curl http://localhost:11434/api/generate -d'{
"model": "deepseek-r1:latest",
"prompt": "Hola Mundo"
}'
Si todo está configurado correctamente, verás una respuesta en bloques de tiempo donde el modelo DeepSeek-R1 responde. Esto indica que está listo para ser integrado en tu entorno de desarrollo en VSCode.
Para trabajar con DeepSeek-R1 en tu entorno de desarrollo en VSCode, es necesario instalar una extensión que permita la comunicación con Ollama y DeepSeek-R1. Esta extensión, llamada Continue.dev, te permitirá autocompletar código, iniciar chats y mejorar tu flujo de desarrollo, de forma similar a GitHub Copilot, pero completamente gratis y desde tu entorno local.
Esta herramienta te permitirá integrar modelos de IA y convertirlos en tu copiloto de desarrollo.
Con la extensión instalada y la comunicación con DeepSeek-R1 validada, es momento de configurarlo en VSCode:
Con toda la configuración previa completada, ya puedes utilizar Continue.dev para autocompletar código o realizar solicitudes directamente desde su interfaz de chat.
Por ejemplo, en un proyecto personal con dos funciones utilitarias para trabajar con slugs, le pedí a DeepSeek-R1 que generara pruebas unitarias para garantizar que estas funciones cumplieran con su objetivo. El modelo respondió correctamente, explicando y generando el código solicitado.
Si llegas a este punto y obtienes resultados satisfactorios, significa que DeepSeek-R1 está funcionando correctamente en tu entorno local. Ahora puedes usarlo para trabajar en tus proyectos sin necesidad de pagar por servicios en la nube o depender de una IA externa.
Con esta configuración, tendrás una herramienta poderosa y gratuita para mejorar tu flujo de trabajo en desarrollo de software. ¡Aprovecha al máximo DeepSeek-R1 y Continue.dev!
Si quieres aprender más sobre DeepSeek y liderar la revolución en inteligencia artificial, te recomiendo separar tu cupo para la charla privada sobre AI con Freddy Vega.
Muchas gracias,
Por lo que veo el modelo debe ser DeepSeek R1
Quise inventar y probar directamente con DeepSeek Coder
Y me funcionó este curl
curl h t t p://localhost:11434/api/generate -d'{ "model": "deepseek-coder:latest", "prompt": "Hola Mundo"}'
Pero a la hora de instalar el plugin y tratar de probar el plugin apuntando a DeepSeek Coder me muestra el mensaje
HTTP 404 Not Found from h t t p ://127.0.0.1:11434/api/chat
Así que no me pasaré de listo y haré los pasos tal cual.
Resulta que si dejas en el desplegable Autodetect, encuentra el modelo que tienes descargado ya puedes usarlo.
Me salí con la mía.
Gracias por tremendo post, ya no tengo excusa para ir en el tren usando IA si no fuera porque mi laptop dura solo 1h. Veamos lo que dura dándole duro con la IA