Langchain organiza todo el flujo de trabajo con modelos de lenguaje en tres pilares fundamentales: conectar con modelos, conectar con datos y encadenar ambos procesos para generar respuestas útiles. Conocer esta estructura es el primer paso para construir aplicaciones como chatbots, asistentes personales o sistemas de preguntas y respuestas sobre documentos.
¿Cómo se estructura una cadena en Langchain?
Una cadena (chain) en Langchain representa el recorrido completo que siguen los datos hasta convertirse en una respuesta. El flujo típico funciona así [0:22]:
- Se parte de datos en bruto.
- Se convierten en representaciones numéricas mediante un embedding.
- Se almacenan en una base de datos vectorial (vector store).
- Se construye un prompt que combina la pregunta del usuario con el contexto relevante.
- Un modelo de lenguaje largo (LLM) recibe ese prompt y genera la respuesta.
Dentro de cada cadena existen pasos opcionales que permiten personalizar el proceso. En la fase de datos, por ejemplo, es posible limpiar la información, generar resúmenes para reducir su extensión, seleccionar variables relevantes, guardarlas como metadata y fragmentar los textos antes de pasarlos por el embedding [1:01].
¿Qué procesos opcionales enriquecen la interacción con un LLM?
Al interactuar con el modelo, también se pueden agregar capas adicionales [1:24]:
- Incorporar una memoria para ampliar el contexto de la conversación.
- Seleccionar y filtrar otra base de datos vectorial usando la metadata.
- Solicitar información específica del usuario dentro del prompt.
Todos estos elementos se combinan en el formato final del prompt que alimenta al LLM. La flexibilidad de Langchain radica en que cada uno de estos pasos es opcional: se agregan o se omiten según las necesidades del proyecto.
¿Dónde encontrar información sobre Langchain?
Existen cuatro fuentes principales para aprender y resolver dudas sobre este framework [1:49]:
- Repositorio de GitHub: es la fuente más importante cuando se trabaja con un proyecto que evoluciona rápidamente. Permite buscar cómo funcionan aspectos que quizás aún no están documentados formalmente.
- Documentación oficial: ofrece una vista central donde se elige entre la versión de Python o JavaScript. Aquí se definen los componentes raíz de Langchain: esquemas, modelos, prompts, índices, memoria, cadenas y agentes [2:22].
- Chatbot integrado en la documentación: permite hacer preguntas directamente, como "¿cómo puedo usar una cadena?", y recibir respuestas paso a paso. Este chatbot es, en sí mismo, un ejemplo de lo que se puede construir con Langchain [3:07].
- Página de integraciones (integrations.langchain.com): muestra todos los document loaders, vector stores, modelos de embedding, modelos de chat y LLMs ya integrados [3:27].
¿Qué casos de uso se pueden implementar?
La documentación destaca varios escenarios prácticos [2:40]:
- Asistentes personales.
- Resolución de preguntas sobre documentos.
- Chatbots conversacionales.
- Preguntas sobre datos tabulares, como archivos CSV.
- Interacción con APIs externas.
- Extracción y evaluación de información.
- Creación de resúmenes automáticos.
Estos son solo algunos ejemplos; las posibilidades van más allá de lo que aparece listado.
¿Cómo explorar los modelos integrados en Langchain?
Un ejercicio valioso consiste en buscar qué modelos están disponibles usando las cuatro vías mencionadas: el repositorio de GitHub, la documentación de Python, el chatbot y la página de integraciones [3:52]. Cada fuente ofrece una experiencia distinta en velocidad, profundidad y formato de la información.
Si quieres usar, por ejemplo, un modelo de chat de OpenAI, basta con buscarlo en la página de integraciones, revisar la descripción y seguir las instrucciones de implementación [3:40].
¿Cuál de las cuatro formas te resultó más práctica para encontrar información? Comparte tu experiencia en los comentarios.