Omar, Eres el mejor profesor de todo Platzi !
Introducción a LangChain
Desarrollo de aplicaciones con LLM utilizando LangChain
Estructura y módulos de LangChain
Uso de modelos Open Source de Hugging Face
Uso de modelos de OpenAI API
Prompt templates de LangChain
Cadenas en LangChain
Utility chains
RetrievalQA chain
Foundational chains
Quiz: Introducción a LangChain
Casos de uso de LangChain
Casos de uso de LangChain
¿Cómo utilizar LangChain en mi equipo?
Quiz: Casos de uso de LangChain
Manejo de documentos con índices
¿Cómo manejar documentos con índices en LangChain?
La clase Document
Document Loaders: PDF
Document Loaders: CSV con Pandas DataFrames
Document Loaders: JSONL
Document Transformers: TextSplitters
Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos
Proyecto de Chatbot: creación de documents de Hugging Face
Quiz: Manejo de documentos con índices
Embeddings y bases de datos vectoriales
Uso de embeddings y bases de datos vectoriales con LangChain
¿Cómo usar embeddings de OpenAI en LangChain?
¿Cómo usar embeddings de Hugging Face en LangChaing?
Chroma vector store en LangChain
Proyecto de Chatbot: ingesta de documents en Chroma
RetrievalQA: cadena para preguntar
Proyecto de Chatbot: cadena de conversación
Proyecto de Chatbot: RetrievalQA chain
Quiz: Embeddings y bases de datos vectoriales
Chats y memoria con LangChain
¿Para qué sirve la memoria en cadenas y chats?
Uso de modelos de chat con LangChain
Chat prompt templates
ConversationBufferMemory
ConversationBufferWindowMemory
ConversationSummaryMemory
ConversationSummaryBufferMemory
Entity memory
Proyecto de Chatbot: chat history con ConversationalRetrievalChain
Quiz: Chats y memoria con LangChain
Evolución del uso de LLM
LangChain y LLM en evolución constante
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
No se trata de lo que quieres comprar, sino de quién quieres ser. Aprovecha el precio especial.
Antes: $249
Paga en 4 cuotas sin intereses
Termina en:
Omar Espejel
Aportes 4
Preguntas 0
Omar, Eres el mejor profesor de todo Platzi !
Tenemos dos tipos de memoria, la de corto plazo y largo Plazo.
Largo plazo se refiere a la data con la que fue entrenado el modelo. Se puede inlcuir la data que se uso para hacer fine tuning.
Corto plazo viene en el promp y se dividé en dos:
Por defecto, las Cadenas no tienen estado, lo que significa que tratan cada consulta entrante de forma independiente (como los propios LLM y modelos de chat subyacentes). En algunas aplicaciones, como los chatbots, es esencial recordar interacciones previas, tanto a corto como a largo plazo.
.
LangChain proporciona componentes de memoria de dos formas:
.
.
La memoria implica mantener un concepto de estado a lo largo de las interacciones de un usuario con un modelo lingüístico, donde las interacciones de un usuario con un modelo lingüístico se capturan en el concepto de ChatMessages, para ingerir, capturar, transformar y extraer conocimiento de una secuencia de mensajes de chat.
.
En general, para cada tipo de memoria hay dos formas de entender el uso de la memoria:
.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?