Fundamentos de los Agentes Inteligentes y LangChain
Introducción a LangChain
Agiliza procesos usando Agentes AI
Agentes inteligentes de LangChain
Instalación y configuración de LangChain
Quiz: Fundamentos de los Agentes Inteligentes y LangChain
Chat Models y Prompt templates
Chat Messages con OpenAI
Introducción a los modelos de chat
Output parsers
Prompt templates en LangChain
Tipos de ChatTemplates: Few-Shot Prompting
Quiz: Chat Models y Prompt templates
Cadenas en LangChain
Introducción a Chains y LCEL
Chat con historial
Integración de cadena: Runnable y OutputParser
Chat Memory
Implementación de memoria en cadenas
Quiz: Cadenas en LangChain
Carga de documentos en LangChain
Cargar HTML y Directorio con LangChain
Carga de PDF y CSV con LangChain
Text Splitters
Quiz: Carga de documentos en LangChain
Retrieval-augmented generation (RAG)
VectorStore: Chroma
Introducción a Embeddings
Vectorstore: Pinecone
Chatbot RAG: carga de documentos a Vectorstore
Chatbot RAG: prompt templates, cadenas y memoria
Quiz: Retrieval-augmented generation (RAG)
Agentes en LangChain
Construcción de agentes en LangChain
LangChain Tools
Construcción de agentes con memoria
Quiz: Agentes en LangChain
Ecosistema de LangChain
Ecosistema de LangChain
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Hemos explorado tres herramientas clave de LangChain que permiten construir flujos de trabajo más eficientes y escalables: Runnable, OutputParser, y Streaming. Estas herramientas ofrecen la capacidad de ejecutar tareas en secuencia o en paralelo, estructurar las respuestas en formatos como JSON, y ofrecer respuestas en tiempo real a los usuarios. Esto es esencial para desarrollar agentes inteligentes como chatbots avanzados, capaces de procesar grandes volúmenes de datos de manera rápida y organizada.
Runnable es una herramienta que te permite encadenar y ejecutar tareas de forma secuencial o en paralelo. Esto resulta útil cuando tienes varias operaciones que deseas realizar de manera conjunta o cuando una secuencia de procesos depende de los resultados previos.
En el ejemplo de la clase, vimos cómo ejecutar una serie de funciones lambda donde el resultado de una función alimenta a la siguiente. Esta cadena de procesos es flexible y te permite manejar datos de manera eficiente.
OutputParser es una herramienta que convierte las respuestas generadas por el modelo en datos estructurados. Esto es particularmente útil cuando necesitas una salida en un formato específico, como JSON, en lugar de una simple cadena de texto.
En el ejemplo de la clase, el JSON OutputParser se utilizó para devolver la respuesta del modelo en formato JSON, lo que permite que las respuestas sean más fáciles de interpretar y reutilizar.
Streaming permite que las respuestas generadas por el modelo se transmitan en tiempo real, lo que es útil en escenarios donde los usuarios no quieren esperar a que se genere una respuesta completa. Esto es similar a cómo funciona ChatGPT, donde ves la respuesta construirse a medida que se genera.
En la clase, se utilizó Streaming para enviar la respuesta del modelo en fragmentos, lo que permite que el texto se genere de manera progresiva y el usuario vea cómo se construye la respuesta sin tener que esperar demasiado.
La combinación de estas herramientas permite construir agentes que no solo ejecuten tareas de manera eficiente, sino que también entreguen respuestas precisas y en tiempo real. Un agente que utiliza Runnable puede manejar múltiples tareas de manera simultánea o secuencial, y con OutputParser puedes asegurarte de que las respuestas del modelo tengan el formato adecuado. Streaming, por su parte, mejora la experiencia del usuario al ofrecer resultados inmediatos.
Con estas herramientas, puedes crear aplicaciones como:
En esta clase, vimos cómo integrar Runnable, OutputParser, y Streaming para construir aplicaciones más potentes y eficientes utilizando LangChain. Estas herramientas ofrecen una forma flexible y escalable de gestionar tareas, estructurar respuestas y mejorar la experiencia del usuario con resultados en tiempo real.
El reto que te dejo es que explores cómo combinar estas herramientas en un proyecto personal. Intenta construir una cadena que utilice Runnable para ejecutar múltiples tareas, estructure las salidas en formato JSON con OutputParser, y utilice Streaming para mostrar las respuestas en tiempo real a los usuarios. ¡Déjame saber en los comentarios cómo te fue!
Aportes 6
Preguntas 2
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?