Introducción a LangChain

1

Desarrollo de aplicaciones con LLM utilizando LangChain

2

Estructura y módulos de LangChain

3

Uso de modelos Open Source de Hugging Face

4

Uso de modelos de OpenAI API

5

Prompt templates de LangChain

6

Cadenas en LangChain

7

Utility chains

8

RetrievalQA chain

9

Foundational chains

Quiz: Introducción a LangChain

Casos de uso de LangChain

10

Casos de uso de LangChain

11

¿Cómo utilizar LangChain en mi equipo?

Quiz: Casos de uso de LangChain

Manejo de documentos con índices

12

¿Cómo manejar documentos con índices en LangChain?

13

La clase Document

14

Document Loaders: PDF

15

Document Loaders: CSV con Pandas DataFrames

16

Document Loaders: JSONL

17

Document Transformers: TextSplitters

18

Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos

19

Proyecto de Chatbot: creación de documents de Hugging Face

Quiz: Manejo de documentos con índices

Embeddings y bases de datos vectoriales

20

Uso de embeddings y bases de datos vectoriales con LangChain

21

¿Cómo usar embeddings de OpenAI en LangChain?

22

¿Cómo usar embeddings de Hugging Face en LangChaing?

23

Chroma vector store en LangChain

24

Proyecto de Chatbot: ingesta de documents en Chroma

25

RetrievalQA: cadena para preguntar

26

Proyecto de Chatbot: cadena de conversación

27

Proyecto de Chatbot: RetrievalQA chain

Quiz: Embeddings y bases de datos vectoriales

Chats y memoria con LangChain

28

¿Para qué sirve la memoria en cadenas y chats?

29

Uso de modelos de chat con LangChain

30

Chat prompt templates

31

ConversationBufferMemory

32

ConversationBufferWindowMemory

33

ConversationSummaryMemory

34

ConversationSummaryBufferMemory

35

Entity memory

36

Proyecto de Chatbot: chat history con ConversationalRetrievalChain

Quiz: Chats y memoria con LangChain

Evolución del uso de LLM

37

LangChain y LLM en evolución constante

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

No se trata de lo que quieres comprar, sino de quién quieres ser. Invierte en tu educación con el precio especial

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

11 Días
18 Hrs
32 Min
34 Seg
Curso de LangChain

Curso de LangChain

Omar Espejel

Omar Espejel

ConversationBufferMemory

31/37
Recursos

Aportes 2

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

El `conversation_buffer_memory()`, sólo usarlo cuando no sean demasiadas preguntas por parte del usuario. Recordar que existe el `conversation_chain()`

📝 Gestión de Memorización

ℹ️ Summary

Esta guía proporciona un caso de uso sobre “Conversation Buffer Memory”, para tener conversaciones cortas y con un enfoque ingenuo.
.

🗂️ Background

Dentro de LangChain, podemos gestionar la memorización en un LLM mediante 2 enfoques:
.

  1. Implementar memorización.
  2. Indexación mediante base de datos vectoriales.

.
Una implementación de una memorización a un LLM, se refiere a entregar un historial al modelo sobre un historial, fabricando un contexto,
.
Enlaces auxiliares:

.

🎯 Problem

Implementar un “Conversation Buffer Memory” utilizando TypeScript para proveer de memorización de contexto a un LLM.
.

🚧 Solution

LangChain prove de BufferMemory, una clase que encapsula un tipo de memoria usada para almacenar y gestionar los mensajes previos en un historial de chat. El cual se soporta sobre el contenedor ChatMessageHistory que extrae los mensajes en una variable de entrada. Esta clase es particularmente útil en aplicaciones como chatbots donde es fundamental recordar interacciones anteriores.

import { BufferMemory, ChatMessageHistory } from 'langchain/memory'
import { HumanMessage, AIMessage } from 'langchain/schema'

const chatHistory = new ChatMessageHistory([
	new HumanMessage("Hi! I'm Jim."),
	new AIMessage(
		"Hi Jim! It's nice to meet you. My name is AI. What would you like to talk about?",
	),
])

const memory = new BufferMemory({
	chatHistory,
})

Con lo anterior, se agregó de un historial de conversación al LLM. Para darle de contexto y efectuar correctamente la siguiente tarea o pregunta.

import { ConversationChain } from 'langchain/chains'

const chain = new ConversationChain({
	llm,
	memory,
})
const response = await chain.call({ input: "What's my name?" })

🍻 Discussion

Las dos principales decisiones de diseño en cualquier sistema de memoria son:
.

  • Cómo se almacena el estado
  • Cómo se consulta el estado

.
Detrás de cualquier memoria hay un historial de todas las interacciones de chat. Aunque no se utilicen todas directamente, es necesario almacenarlas de alguna forma. Una de las partes clave del módulo de memoria de LangChain es una serie de integraciones para almacenar estos mensajes de chat, desde listas en memoria hasta bases de datos persistentes.

import { ConversationChain } from 'langchain/chains'
import { ChatOpenAI } from 'langchain/chat_models/openai'
import { BufferMemory, ChatMessageHistory } from 'langchain/memory'
import { HumanMessage, AIMessage } from 'langchain/schema'

const API_TOKEN = // 👈 Enter the API Token from OpenAI

const llm = new ChatOpenAI({
	maxTokens: -1,
	modelName: 'gpt-4',
	temperature: 0,
	openAIApiKey: API_TOKEN,
})

const chatHistory = new ChatMessageHistory([
	new HumanMessage("Hi! I'm Jim."),
	new AIMessage(
		"Hi Jim! It's nice to meet you. My name is AI. What would you like to talk about?",
	),
])

const memory = new BufferMemory({
	chatHistory,
})

const chain = new ConversationChain({
	llm,
	memory,
})
const response = await chain.call({ input: "What's my name?" })

.