- 1

Creación de un sistema de preguntas y respuestas con LangChain
13:08 - 2

Estructura y Uso de Langchain en Python
05:24 - 3

Carga de Modelos Open Source con Langchain y Hugging Face
13:13 - 4

Uso de Modelos OpenAI con LangChain: Guía Práctica para Principiantes
07:51 - 5

Creación de Prompts Dinámicos con LangChain
08:59 - 6

Uso de Cadenas en Modelos de Lenguaje con Language Chain
01:54 - 7

Procesamiento de PDFs y creación de resúmenes con LangChain
11:49 - 8

Creación de Cadenas de Preguntas y Respuestas con Modelos de Lenguaje
04:54 - 9

Creación de cadenas secuenciales en Python para procesamiento de texto
14:31 Quiz: Introducción a LangChain
Memoria de Resumen de Conversaciones con Chat GPT-3.5
Clase 33 de 37 • Curso de LangChain
Contenido del curso
- 12

Carga de Documentos en Langchain para Creación de Índices
02:58 - 13

Fundamentos de la Clase Document en Langchain
04:38 - 14

Carga y Transformación de Documentos No Estructurados con Landship
06:30 - 15
Lectura de CSV y conversión a DataFrame de Pandas y LangChain
01:19 - 16

Creación de un Cargador de JSON-Lines Personalizado en Python
08:37 - 17

Fragmentación de Documentos con TextSplitter en Langsteam
08:14 - 18

Creación de un Chatbot con Documentación de Hugging Face
07:34 - 19

Creación de Índice Vectorial con Langchain y Embeddings
07:21 Quiz: Manejo de documentos con índices
- 20

Creación de Índices con Embeddings y Bases de Datos Vectoriales
03:42 - 21

Creación y uso de embeddings con OpenAI y Lanchain
05:31 - 22

Modelos de Embeddings Open Source en Español con Sentence Transformers
09:51 - 23

Creación y Gestión de Bases de Datos Vectoriales con Chroma
09:25 - 24

Creación y manejo de bases de datos vectoriales con OpenAI Embeddings
09:20 - 25

Creación y Uso de un Retriever en Chroma para Consultas Avanzadas
07:57 - 26

Modelo de Chat para Preguntas y Respuestas con LangChain y Chroma
08:17 - 27

Creación de un Chatbot para Preguntas con Bases de Datos Vectoriales
05:31 Quiz: Embeddings y bases de datos vectoriales
- 28

Memoria de Corto Plazo en Chatbots: Implementación y Optimización
04:10 - 29

Creación y Uso de Modelos de Chat con OpenAI y LangChain
06:48 - 30

Creación de Plantillas Dinámicas para Prompts de Chat en Langstead
07:12 - 31

Memoria en chatbots: Implementación con ConversationBufferMemory
06:40 - 32

Configuración de ConversationBufferWindowMemory en Chatbots
05:51 - 33

Memoria de Resumen de Conversaciones con Chat GPT-3.5
05:14 - 34
Gestión de Memoria en Chatbots con ConversationSummaryBufferMemory
04:14 - 35

Memoria de Entidades en Chatbots para Soporte de Ventas
12:11 - 36

Implementación de Chatbot con Memoria en Python usando Langchain
12:36 Quiz: Chats y memoria con LangChain
¿Qué es la memoria Conversation Summary Memory?
La memoria Conversation Summary Memory permite la creación de un resumen de todas las interacciones mantenidas en una conversación. A diferencia de guardar cada interacción individualmente, este enfoque guarda un resumen que encapsula el contenido de la conversación. Esta técnica es ideal para conversaciones extensas, permitiendo mantener una visión general sin recopilar cada mensaje por separado.
¿Cómo se configuran las bibliotecas necesarias?
Para implementar este tipo de memoria, es esencial contar con algunas bibliotecas clave:
- Memory en Chains: Importa
ConversationSummaryMemorypara gestionar las interacciones. - OpenAI desde LangChain: Utiliza los modelados de lenguaje de OpenAI para procesar las conversaciones.
- Chains, Conversation Chain: Crea cadenas de conversación basadas en modelos AI.
from langchain.memory import ConversationSummaryMemory
from langchain.llms import OpenAI
from langchain.chains import ConversationChain
¿Cómo se instancian modelo y memoria?
Creación del modelo
Primero, instanciamos un modelo de chat de OpenAI. En este caso, el modelo específico es GPT-3.5 Turbo.
chat_model = OpenAI.ChatCompletion(model="gpt-3.5-turbo")
Configuración de la memoria
Creamos la memoria, denominada SummaryMemory, definiendo el modelo que se encargará de gestionar el resumen de las interacciones:
summary_memory = ConversationSummaryMemory(model=chat_model)
¿Cómo se realiza una conversación simulada?
Una vez configurada la instancia del modelo y la memoria, podemos proceder a generar una cadena de conversación.
Instanciación y seguimiento
Creamos un objeto de ConversationChain, utilizando chat_model, con la opción verbose=True para seguir el flujo detallado:
conversation = ConversationChain(
model=chat_model,
verbose=True,
memory_type=summary_memory
)
Ejemplos de interacción
-
Iniciamos la conversación: Se observa cómo
verbose=Truebrinda contexto sobre las interacciones. Aquí, el papel de la inteligencia artificial y el ser humano se define claramente. -
Primer intercambio: Omar, el interlocutor humano, se presenta de manera coloquial, y la inteligencia artificial responde de manera cordial y amistosa.
-
Más interacción: Se continúan las preguntas y respuestas, donde se puede consultar temas complejos como la historia latinoamericana y la opresión indígena. El resumen se llena con las interacciones, destacando preguntas importantes y el estilo de comunicación coloquial de Omar.
Ventajas de usar Conversation Summary Memory
- Contexto en conversaciones largas: Ideal para mantener una visión general de interacciones extensas sin perder detalles críticos.
- Memoria eficiente: Guarda el contexto necesario para construir respuestas informadas sin sobrecargar la memoria.
- Acceso a resúmenes: Posibilidad de imprimir y revisar el resumen de la conversación, simplificando el seguimiento de temas tratados.
Esta herramienta ofrece una manera efectiva de manejar conversaciones complejas en aplicaciones donde el contexto y la memoria de las interacciones son esenciales.