Introducción a LangChain

1

Desarrollo de aplicaciones con LLM utilizando LangChain

2

Estructura y módulos de LangChain

3

Uso de modelos Open Source de Hugging Face

4

Uso de modelos de OpenAI API

5

Prompt templates de LangChain

6

Cadenas en LangChain

7

Utility chains

8

RetrievalQA chain

9

Foundational chains

Quiz: Introducción a LangChain

Casos de uso de LangChain

10

Casos de uso de LangChain

11

¿Cómo utilizar LangChain en mi equipo?

Quiz: Casos de uso de LangChain

Manejo de documentos con índices

12

¿Cómo manejar documentos con índices en LangChain?

13

La clase Document

14

Document Loaders: PDF

15

Document Loaders: CSV con Pandas DataFrames

16

Document Loaders: JSONL

17

Document Transformers: TextSplitters

18

Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos

19

Proyecto de Chatbot: creación de documents de Hugging Face

Quiz: Manejo de documentos con índices

Embeddings y bases de datos vectoriales

20

Uso de embeddings y bases de datos vectoriales con LangChain

21

¿Cómo usar embeddings de OpenAI en LangChain?

22

¿Cómo usar embeddings de Hugging Face en LangChaing?

23

Chroma vector store en LangChain

24

Proyecto de Chatbot: ingesta de documents en Chroma

25

RetrievalQA: cadena para preguntar

26

Proyecto de Chatbot: cadena de conversación

27

Proyecto de Chatbot: RetrievalQA chain

Quiz: Embeddings y bases de datos vectoriales

Chats y memoria con LangChain

28

¿Para qué sirve la memoria en cadenas y chats?

29

Uso de modelos de chat con LangChain

30

Chat prompt templates

31

ConversationBufferMemory

32

ConversationBufferWindowMemory

33

ConversationSummaryMemory

34

ConversationSummaryBufferMemory

35

Entity memory

36

Proyecto de Chatbot: chat history con ConversationalRetrievalChain

Quiz: Chats y memoria con LangChain

Evolución del uso de LLM

37

LangChain y LLM en evolución constante

Curso de LangChain

Curso de LangChain

Omar Espejel

Omar Espejel

Estructura y módulos de LangChain

2/37
Recursos
Transcripción

Aportes 8

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Flujo para generar una respuesta con LangChain

  • Primero comenzamos con datos
  • Luego se convierten en numero con embebbing
  • Luego se guardan en una base de datos vectorial
  • A partir del guardado se crea un prompt para empezar a hacer preguntas
  • La pregunta al humano se combina con el promp y lo recibe un modelo de LLM (Large Lenguaje Model)
  • Esto ultimo es la que genera la respuesta.

Sin embargo hay procesos que pueden o no ocurrir. Por ejemplo para el procesamiento de datos se pueden limpiar, generar resumenes, seleccionar metada especifica y posteriormente fragmentarlo para enviarlo al modelo de embebbing.

Para mí, la forma más fácil de encontrar los LLMs con los que LangChain tiene integraciones fue a través de la página de integraciones. Al 29 de julio de 2023, LangChain tiene integraciones con 56 LLMs.

Todavía no entiendo muy bien qué estoy haciendo/aprendiendo, desde la primera clase sentí que nos fuimos directo a la acción sin haber definido por ejemplo que LangChain es un framework (yo creía que era una librería).

Pero para responder al reto, se me hizo más fácil la página de integraciones, está todo ahí separado por categoría y un poco más claro, además de que cada integración que visité tenía información extra (aunque algún repo ya no existe).

Sí hablamos de modelos de chat, tiene integrados 6: 2 de OpenAI, Jina, Anthropic, Azure, PaLM (de Google), VertexAI y MLflow, pero también tiene integración con más de 50 modelos LLM’s.

Esta interesante sus múltiples usos, el uso del prompt tipo asistente es genial
Buena tarde, soy muy nuevo aqui y aun desconozco muchas cosas, pretendo desarrollar un chatbot para la empresa en la que me encuentro, me gustaria saber si esto se puede integrar tambien en Whats App? Gracias de antemano :)

Por medio de la página de integración, ya que muestra todos los modelos en un solo sitio.