Introducci贸n a LangChain

1

Desarrollo de aplicaciones con LLM utilizando LangChain

2

Estructura y m贸dulos de LangChain

3

Uso de modelos Open Source de Hugging Face

4

Uso de modelos de OpenAI API

5

Prompt templates de LangChain

6

Cadenas en LangChain

7

Utility chains

8

RetrievalQA chain

9

Foundational chains

Quiz: Introducci贸n a LangChain

Casos de uso de LangChain

10

Casos de uso de LangChain

11

驴C贸mo utilizar LangChain en mi equipo?

Quiz: Casos de uso de LangChain

Manejo de documentos con 铆ndices

12

驴C贸mo manejar documentos con 铆ndices en LangChain?

13

La clase Document

14

Document Loaders: PDF

15

Document Loaders: CSV con Pandas DataFrames

16

Document Loaders: JSONL

17

Document Transformers: TextSplitters

18

Proyecto de Chatbot: configuraci贸n de entorno para LangChain y obtenci贸n de datos

19

Proyecto de Chatbot: creaci贸n de documents de Hugging Face

Quiz: Manejo de documentos con 铆ndices

Embeddings y bases de datos vectoriales

20

Uso de embeddings y bases de datos vectoriales con LangChain

21

驴C贸mo usar embeddings de OpenAI en LangChain?

22

驴C贸mo usar embeddings de Hugging Face en LangChaing?

23

Chroma vector store en LangChain

24

Proyecto de Chatbot: ingesta de documents en Chroma

25

RetrievalQA: cadena para preguntar

26

Proyecto de Chatbot: cadena de conversaci贸n

27

Proyecto de Chatbot: RetrievalQA chain

Quiz: Embeddings y bases de datos vectoriales

Chats y memoria con LangChain

28

驴Para qu茅 sirve la memoria en cadenas y chats?

29

Uso de modelos de chat con LangChain

30

Chat prompt templates

31

ConversationBufferMemory

32

ConversationBufferWindowMemory

33

ConversationSummaryMemory

34

ConversationSummaryBufferMemory

35

Entity memory

36

Proyecto de Chatbot: chat history con ConversationalRetrievalChain

Quiz: Chats y memoria con LangChain

Evoluci贸n del uso de LLM

37

LangChain y LLM en evoluci贸n constante

No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

La clase Document

13/37
Recursos

Aportes 1

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

- 脥ndices:

- Son la forma de estructurar documentos para que los LLM puedan interactuar con ellos de la mejor forma
- Con lo cual permite optimizar eficiencia y velocidad de las operaciones b煤squeda y recuperaci贸n de informaci贸n
- Son un an谩logo a los 铆ndices de libros que permiten localizar r谩pidamente un contenido espec铆fico. De manera similar los indices en langchain permiten a los LLM encontrar r谩pidamente informaci贸n relevante sin tener que procesar todos los documentos disponibles.
  • Recuperaci贸n de informaci贸n y los 铆ndices:
    • El uso m谩s com煤n de 铆ndices es la recuperaci贸n de informaci贸n en el procesamiento de datos
    • Toma la consulta del usuario y devuelve los documentos m谩s relevantes, considerando la siguiente distinci贸n:
      • Un 铆ndice puede utilizarse para aplicaciones diferentes a la recuperaci贸n
      • La recuperaci贸n puede utilizar otras l贸gicas adem谩s de un 铆ndice para encontrar los documentos m谩s relevantes
    • La indexaci贸n y recuperaci贸n de datos no estructurados es la referencia com煤n cuanto se habla de 铆ndices y recuperaci贸n de informaci贸n.

Retriver en LangChain

- Es un componente fundamental, su responsabilidad es localizar y devolver documentos relevantes seg煤n una consulta espec铆fica (como un bibliotecario que sabe exactamente la ubicaci贸n de los libros necesario)
- Retriver implementa el m茅todo `get_relevant_documents`, la estrategia m谩s eficiente planteado por LangChain se basa en el concepto de Vectorstore, centr谩ndonos en Retriver tipo vectorstore

Vectorstore y los Vectorestore Retriver

- Un vectorstore :

    - Es un tipo de base de datos especialmente dise帽ada para gestionar y manipular vectores de alta dimensionalidad
    - Com煤nmente utilizado para presentar datos en apredizaje autom谩tico y otras aplicaciones de IA
- Si el retriver es el bibliotecario, el vectorstore ser铆a el sistema de clasificaci贸n y organizaci贸n de la biblioteca
- LangChain utiliza como sistema Vectorstore predeterminada a Chroma, el cual es utilizado para indexar y buscar embeddings (vectores que representan documentos en el espacio multidimencional)
- Los embedding son una forma de condensar y representar la informaci贸n de un documento para que pueda ser f谩cilmente comparada con otros
- El Retriver tipo Vectorstore primero transforma la consulta en un vector (por medio del embedding), luego busca en la base de datos Vectorstore los documentos cuyos vectores son m谩s cercanos (en t茅rminos de distancia coseno u otras m茅tricas) a la consulta vectorizada
  • Un LLM puede recordar informaci贸n de 2 maneras:
    • Los datos con los que se entren贸, lo cual es limitado
    • Podemos hacer que un LLM recuerde informaci贸n a partir del contenido que le ingresemos al prompt.
  • Para ingresar informaci贸n al LLM por medio del prompt:
    • La clave est谩 en c贸mo ingresarle al informaci贸n al modelo para que este genere la mejor respuesta a las preguntas del usuario o de la usuaria

    • Los 铆ndices permiten abordar este tema:

      • Permitir谩n encontrar la informaci贸n clave que necesitamos.
      • Permite cargar la informaci贸n al LLM desde cualquier tipo de fuente
    • Luego de la carga debemos pasar por todo un proceso:

      • Document loaders 鈫 cargar informaci贸n
      • Text splitters 鈫 embedding que conviertan de texto a n煤mero
      • Vectorstore 鈫 permite crear el 铆ndice

      Los queries tambi茅n ingresan a la vectorstore para buscar el fragmento de texto que tiene la mayor probabilidad de responder adecuadamente dicha query. Dichos fragmentos son pasados al modelo como insumo para que de la respuesta la usuario