Fundamentos de los Agentes Inteligentes y LangChain
Conexión a Huggingface GPT-2 en Google Collaboratory
Desarrollo de Aplicaciones Conversacionales con LangChain
Creación de Agentes Inteligentes con LangChain
Instalación y uso de API Keys para modelos de lenguaje en Google Collab
Quiz: Fundamentos de los Agentes Inteligentes y LangChain
Chat Models y Prompt templates
Chat Messages con OpenAI
Conexión y uso de modelos de chat con LangChain y OpenAI
Uso de Modelos de Google AI Gemini en LangChain
Creación de Plantillas de Prompts en LangChain
Técnicas de Few-Shot Prompting en Modelos de Lenguaje
Quiz: Chat Models y Prompt templates
Cadenas en LangChain
Creación de Cadenas en LangChain con String Output Parser
Gestión de Historial de Chat con LangChain
Integración de Herramientas Claves en LangChain: Runnable, OutputParser, Streaming
Creación de Chatbots Inteligentes con Memoria Conversacional
Cadena de Procesos para Memoria Conversacional con GPT-3.5 Turbo
Quiz: Cadenas en LangChain
Carga de documentos en LangChain
Carga y procesamiento de archivos HTML con LangChain y Beautiful Soup
Carga de PDFs y CSVs en LangChain con PyPDF y CSV Loader
División de Texto en Fragmentos con TextSplitters en LangChain
Quiz: Carga de documentos en LangChain
Retrieval-augmented generation (RAG)
Gestión de Vectores de Texto con Chroma y LangChain
Embeddings y su aplicación en modelos de lenguaje y RAG
Pinecone: Implementación de Bases de Datos Vectoriales Escalables
Creación de Chatbot RAG con LangChain y ChromaDB
Construcción de un Asistente Conversacional con LangChain y RAG
Quiz: Retrieval-augmented generation (RAG)
Agentes en LangChain
Creación de Agentes en LangChain con Tavily Search y OpenAI
Integración de Toolkits en LangChain para Modelos de Lenguaje
Creación de Agentes Inteligentes con LangChain y Memoria
Quiz: Agentes en LangChain
Ecosistema de LangChain
Creación y Gestión de Aplicaciones con LangChain, LangSmith y LangGraph
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Los chat models son una variante de los modelos de lenguaje diseñados específicamente para interactuar en formato conversacional. Esto significa que no solo reciben entradas de texto y generan respuestas, sino que también procesan las conversaciones como una serie de intercambios estructurados. En aplicaciones como los asistentes virtuales o chatbots, los chat models permiten mantener diálogos más coherentes y naturales.
Un aspecto clave cuando trabajamos con chat models es la capacidad de definir diferentes roles para los mensajes en una conversación. LangChain soporta varios tipos de roles en los mensajes:
Definir estos roles ayuda a estructurar la conversación y facilita que el modelo entienda cuál es su función en cada paso de la interacción.
Al trabajar con chat models, es posible ajustar el comportamiento del modelo mediante diferentes parámetros. Algunos de los más importantes son:
Un flujo típico para interactuar con un chat model en LangChain usando OpenAI sigue varios pasos:
invoke()
, puedes enviar los mensajes estructurados al modelo para recibir respuestas basadas en la configuración de roles y parámetros definidos.Al trabajar con chat models, es fundamental optimizar el uso de tokens, especialmente cuando trabajas con modelos comerciales que cobran por token. Aquí algunos consejos:
max_tokens
ayuda a limitar la cantidad de texto generado por el modelo, lo que es útil cuando solo necesitas respuestas cortas y específicas.En LangChain, puedes elegir entre diferentes versiones de los modelos de OpenAI, como GPT-3.5-turbo o GPT-4.0, dependiendo de la complejidad y velocidad que necesitas para tu aplicación. GPT-4 es más avanzado y preciso, pero también puede ser más costoso en términos de uso de tokens. Por otro lado, GPT-3.5-turbo es más eficiente para tareas que requieren rapidez y menos consumo de recursos.
Las aplicaciones que puedes crear con chat models van más allá de simples chatbots. Aquí algunos ejemplos:
Aportes 19
Preguntas 4
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?