Fundamentos de los Agentes Inteligentes y LangChain
Conexión a Huggingface GPT-2 en Google Collaboratory
Desarrollo de Aplicaciones Conversacionales con LangChain
Creación de Agentes Inteligentes con LangChain
Instalación y uso de API Keys para modelos de lenguaje en Google Collab
Quiz: Fundamentos de los Agentes Inteligentes y LangChain
Chat Models y Prompt templates
Chat Messages con OpenAI
Conexión y uso de modelos de chat con LangChain y OpenAI
Uso de Modelos de Google AI Gemini en LangChain
Creación de Plantillas de Prompts en LangChain
Técnicas de Few-Shot Prompting en Modelos de Lenguaje
Quiz: Chat Models y Prompt templates
Cadenas en LangChain
Creación de Cadenas en LangChain con String Output Parser
Gestión de Historial de Chat con LangChain
Integración de Herramientas Claves en LangChain: Runnable, OutputParser, Streaming
Creación de Chatbots Inteligentes con Memoria Conversacional
Cadena de Procesos para Memoria Conversacional con GPT-3.5 Turbo
Quiz: Cadenas en LangChain
Carga de documentos en LangChain
Carga y procesamiento de archivos HTML con LangChain y Beautiful Soup
Carga de PDFs y CSVs en LangChain con PyPDF y CSV Loader
División de Texto en Fragmentos con TextSplitters en LangChain
Quiz: Carga de documentos en LangChain
Retrieval-augmented generation (RAG)
Gestión de Vectores de Texto con Chroma y LangChain
Embeddings y su aplicación en modelos de lenguaje y RAG
Pinecone: Implementación de Bases de Datos Vectoriales Escalables
Creación de Chatbot RAG con LangChain y ChromaDB
Construcción de un Asistente Conversacional con LangChain y RAG
Quiz: Retrieval-augmented generation (RAG)
Agentes en LangChain
Creación de Agentes en LangChain con Tavily Search y OpenAI
Integración de Toolkits en LangChain para Modelos de Lenguaje
Creación de Agentes Inteligentes con LangChain y Memoria
Quiz: Agentes en LangChain
Ecosistema de LangChain
Creación y Gestión de Aplicaciones con LangChain, LangSmith y LangGraph
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
RAG es un enfoque de generación de respuestas donde un language model combina su conocimiento preentrenado con la capacidad de recuperar información relevante desde un vector store. En lugar de generar respuestas basadas solo en los datos con los que fue entrenado, el modelo busca y extrae fragmentos de texto relevantes almacenados externamente y genera respuestas más precisas y contextuales. Esto es especialmente útil para tareas que requieren acceso a información actualizada o específica, como documentos internos, informes empresariales, o investigaciones científicas.
Un Vector Store como ChromaDB es una base de datos optimizada para almacenar y gestionar vectores. Estos vectores son representaciones numéricas de fragmentos de texto que han sido vectorizados utilizando modelos de embeddings, como los de OpenAI. La ventaja de usar un vector store es que permite realizar búsquedas semánticas rápidas y precisas, recuperando los fragmentos más cercanos a la consulta del usuario.
La memoria del historial de conversación juega un papel crucial en un asistente conversacional que necesita recordar interacciones previas para dar respuestas más coherentes y útiles. En este proyecto, cada vez que el usuario hace una consulta, se guarda el contexto de la interacción, permitiendo al asistente mantener un seguimiento de la conversación.
Los Prompt Templates permiten guiar al modelo en la forma en que debe responder. Este prompt incluye:
El enfoque RAG es especialmente útil en escenarios donde el acceso a información actualizada o específica es esencial. Algunos casos de uso incluyen:
Aportes 6
Preguntas 3
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?