Introducción a LangChain

1

Desarrollo de aplicaciones con LLM utilizando LangChain

2

Estructura y módulos de LangChain

3

Uso de modelos Open Source de Hugging Face

4

Uso de modelos de OpenAI API

5

Prompt templates de LangChain

6

Cadenas en LangChain

7

Utility chains

8

RetrievalQA chain

9

Foundational chains

Quiz: Introducción a LangChain

Casos de uso de LangChain

10

Casos de uso de LangChain

11

¿Cómo utilizar LangChain en mi equipo?

Quiz: Casos de uso de LangChain

Manejo de documentos con índices

12

¿Cómo manejar documentos con índices en LangChain?

13

La clase Document

14

Document Loaders: PDF

15

Document Loaders: CSV con Pandas DataFrames

16

Document Loaders: JSONL

17

Document Transformers: TextSplitters

18

Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos

19

Proyecto de Chatbot: creación de documents de Hugging Face

Quiz: Manejo de documentos con índices

Embeddings y bases de datos vectoriales

20

Uso de embeddings y bases de datos vectoriales con LangChain

21

¿Cómo usar embeddings de OpenAI en LangChain?

22

¿Cómo usar embeddings de Hugging Face en LangChaing?

23

Chroma vector store en LangChain

24

Proyecto de Chatbot: ingesta de documents en Chroma

25

RetrievalQA: cadena para preguntar

26

Proyecto de Chatbot: cadena de conversación

27

Proyecto de Chatbot: RetrievalQA chain

Quiz: Embeddings y bases de datos vectoriales

Chats y memoria con LangChain

28

¿Para qué sirve la memoria en cadenas y chats?

29

Uso de modelos de chat con LangChain

30

Chat prompt templates

31

ConversationBufferMemory

32

ConversationBufferWindowMemory

33

ConversationSummaryMemory

34

ConversationSummaryBufferMemory

35

Entity memory

36

Proyecto de Chatbot: chat history con ConversationalRetrievalChain

Quiz: Chats y memoria con LangChain

Evolución del uso de LLM

37

LangChain y LLM en evolución constante

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Curso de LangChain

Curso de LangChain

Omar Espejel

Omar Espejel

Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos

18/37
Recursos

Aportes 5

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

**Actualización a Enero del 2025** Si no les funciona deben hacer lo siguiente: 1\. Clonen el proyecto (por default será la rama start) 2\. Creen un token en GH (settings > dev settings > Personal Access Tokens > fine-grained) y guarden ese token 3\. Creen un VENV y una vez creado activarlo 4\. Intalen librerias que no están en requirements `pip install poetry langchain emoji python-dotenv` 5\. Creen 2 archivos uno que se llame `.env` y otro `.env-example` y escriban en ambos archivos `GITHUB_TOKEN=` (sin el token) 6\. Asegúrense de que tanto venv como .env estén en `.gitignore` 7\. En .env agreguen el token de GH sin espacios ni comillas 8\. En text extractor agreguen al inicio: ```js import datetime import json import os import re from typing import Dict from dotenv import load_dotenv import emoji import requests from termcolor import colored from utils import create_dir, load_config, remove_existing_file load_dotenv(dotenv_path=".env") ``` 9\. Por ultimo pueden actualizar requirements con el siguiente comando: `pip freeze > requirements.txt` Espero les ayude muchísimo!!
Tener en cuenta las versiones de python y pip en la configuración de sus ambientes.
¿Alguna sugerencia para los problemas de compatibilidad en las versiones que se presenta al correr la instalación de paquetes con poetry e incluso con pip? No pude hacer el document load ni el text splitter ya que no encontre manera de instalar y hacer funcionar los paquetes en las versiones que tiene el repo en main. Gracias

Como configuro la variable de entorno para que tome el github token?
lo agregue a config.yaml y cree un .env pero no logro hacerlo funcionar y siempre me devuelve “GITHUB_TOKEN no está configurado en las variables de entorno.”

me da este error TypeError: multiple bases have instance lay-out conflict al ejecutar python hashira/text\_extractor.py hasta aqui llegue.