Introducción a LangChain

1

Desarrollo de aplicaciones con LLM utilizando LangChain

2

Estructura y módulos de LangChain

3

Uso de modelos Open Source de Hugging Face

4

Uso de modelos de OpenAI API

5

Prompt templates de LangChain

6

Cadenas en LangChain

7

Utility chains

8

RetrievalQA chain

9

Foundational chains

Quiz: Introducción a LangChain

Casos de uso de LangChain

10

Casos de uso de LangChain

11

¿Cómo utilizar LangChain en mi equipo?

Quiz: Casos de uso de LangChain

Manejo de documentos con índices

12

¿Cómo manejar documentos con índices en LangChain?

13

La clase Document

14

Document Loaders: PDF

15

Document Loaders: CSV con Pandas DataFrames

16

Document Loaders: JSONL

17

Document Transformers: TextSplitters

18

Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos

19

Proyecto de Chatbot: creación de documents de Hugging Face

Quiz: Manejo de documentos con índices

Embeddings y bases de datos vectoriales

20

Uso de embeddings y bases de datos vectoriales con LangChain

21

¿Cómo usar embeddings de OpenAI en LangChain?

22

¿Cómo usar embeddings de Hugging Face en LangChaing?

23

Chroma vector store en LangChain

24

Proyecto de Chatbot: ingesta de documents en Chroma

25

RetrievalQA: cadena para preguntar

26

Proyecto de Chatbot: cadena de conversación

27

Proyecto de Chatbot: RetrievalQA chain

Quiz: Embeddings y bases de datos vectoriales

Chats y memoria con LangChain

28

¿Para qué sirve la memoria en cadenas y chats?

29

Uso de modelos de chat con LangChain

30

Chat prompt templates

31

ConversationBufferMemory

32

ConversationBufferWindowMemory

33

ConversationSummaryMemory

34

ConversationSummaryBufferMemory

35

Entity memory

36

Proyecto de Chatbot: chat history con ConversationalRetrievalChain

Quiz: Chats y memoria con LangChain

Evolución del uso de LLM

37

LangChain y LLM en evolución constante

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

No se trata de lo que quieres comprar, sino de quién quieres ser. Aprovecha el precio especial.

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

15 Días
6 Hrs
23 Min
53 Seg
Curso de LangChain

Curso de LangChain

Omar Espejel

Omar Espejel

¿Cómo usar embeddings de Hugging Face en LangChaing?

22/37
Recursos

Aportes 6

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

pueden tambien probar este modelo es un poco pesado pero es multilenguaje con una longitud de 1024 mayor a los 384 y 724 moestrados en la clase
embeddings_hg = HuggingFaceEmbeddings(model_name=“intfloat/multilingual-e5-large”)

Una diferencia entre usar embeddings o IntructEmbeddings, es que el IntructEmbeddings, porporciona contexto a la busqueda, por ejemplo, en cada busqueda que realicemos podemos añadir un texto como el siguiente "devuelve articulos de la wikipedia que contegan: {nuestra variable}"
A día de hoy, tuve que usar el siguiente codigo para no tener problemas en la consola: ```python %%capture !pip install langchain_community sentence_transformers from langchain_community.embeddings import HuggingFaceInstructEmbeddings embedding_instruct = HuggingFaceInstructEmbeddings( model_name="hkunlp/instructor-large", model_kwargs={"device":"cuda"} ) ```
Para los que no les funciona el Instruct, esto puede ayudar (primero reiniciar la sesión): %%capture!pip install sentence-transformers==2.2.2 langchain\_community InstructorEmbedding
Como aporte a tener en cuenta cuando estén realizando sus embeddings, existen dos conceptos importantes que son max-tokens y dimensions (dimensiones). Las dimensiones están relacionadas con la representación vectorial de palabras, mientras que el máximo de tokens está relacionado con la gestión de la longitud de las secuencias de entrada durante la tokenización y el procesamiento de texto. Ambos son parámetros importantes que se deben ajustar según las necesidades y recursos disponibles.
`tu_embedding.client`, nos dice la cantidad de `tokens`, permitidos por el embedding que estes usando.