Introducción a LangChain

1

Desarrollo de aplicaciones con LLM utilizando LangChain

2

Estructura y módulos de LangChain

3

Uso de modelos Open Source de Hugging Face

4

Uso de modelos de OpenAI API

5

Prompt templates de LangChain

6

Cadenas en LangChain

7

Utility chains

8

RetrievalQA chain

9

Foundational chains

Quiz: Introducción a LangChain

Casos de uso de LangChain

10

Casos de uso de LangChain

11

¿Cómo utilizar LangChain en mi equipo?

Quiz: Casos de uso de LangChain

Manejo de documentos con índices

12

¿Cómo manejar documentos con índices en LangChain?

13

La clase Document

14

Document Loaders: PDF

15

Document Loaders: CSV con Pandas DataFrames

16

Document Loaders: JSONL

17

Document Transformers: TextSplitters

18

Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos

19

Proyecto de Chatbot: creación de documents de Hugging Face

Quiz: Manejo de documentos con índices

Embeddings y bases de datos vectoriales

20

Uso de embeddings y bases de datos vectoriales con LangChain

21

¿Cómo usar embeddings de OpenAI en LangChain?

22

¿Cómo usar embeddings de Hugging Face en LangChaing?

23

Chroma vector store en LangChain

24

Proyecto de Chatbot: ingesta de documents en Chroma

25

RetrievalQA: cadena para preguntar

26

Proyecto de Chatbot: cadena de conversación

27

Proyecto de Chatbot: RetrievalQA chain

Quiz: Embeddings y bases de datos vectoriales

Chats y memoria con LangChain

28

¿Para qué sirve la memoria en cadenas y chats?

29

Uso de modelos de chat con LangChain

30

Chat prompt templates

31

ConversationBufferMemory

32

ConversationBufferWindowMemory

33

ConversationSummaryMemory

34

ConversationSummaryBufferMemory

35

Entity memory

36

Proyecto de Chatbot: chat history con ConversationalRetrievalChain

Quiz: Chats y memoria con LangChain

Evolución del uso de LLM

37

LangChain y LLM en evolución constante

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Curso de LangChain

Curso de LangChain

Omar Espejel

Omar Espejel

Uso de modelos Open Source de Hugging Face

3/37
Recursos

Aportes 10

Preguntas 10

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Tengan ojo cuando y donde corren esto. Como se daran cuenta esta utilizando una cuenta PRO de google colab. En mi caso ni usando un colab normal ni un deepnote funcionara el código. A mi me funciono solo usando un pc con mas recursos en Azure AI

Yo estou creando un proyecto para desarrollar modelos de código abierto afinándolos para que interpreten mejor español si les gustaría contribuir me escriben. Este curso esta buenísimo

La mayoría de modelos genera lo que se le da la gana, en algunos casos nada que ver con la entrada Ejemplo: usando el model "datificate/gpt2-small-spanish" Genera: llm\_neo ("que es ai?") que es ai? y sin embargo, como todos estos se refieren mucho más a un episodio de "Uncanny Lips" en la que se ve que "The New Yorker" se puede describir, el show tiene la oportunidad de mostrar llm\_neo ("que es ia?") que es ia? - ¿por qué? - por qué, o por qué no? "Ephanax" está escrito aproximadamente como: ""Mantea, Mantea, Mantea, Mantea, Memoe llm\_neo ("que es inteligencia artificial?") que es inteligencia artificial? El científico Paul Martin, nacido con el nombre de Paul Martin, es un neurocientífico experto en la estructura de los sistemas neuronales artificiales que se basan en la investigación de los patrones de un cerebro y las propiedades de esos patrones.. Y si le quitamos el signo de pregunta?? jajaj aun mas loco: llm\_neo ("que es inteligencia artificial") que es inteligencia artificial. También se encuentra la capacidad de crear seres inteligentes y los cuales, aunque son incipientes y nunca causan daños, son capaces de crear seres humanos. También se encuentra la capacidad de transformar humanos en cuerpos de agua; aunque pueden En fin... Las IA

Creo que es importante mencionar también que existen limitaciones de ciertos modelos que se quieran usar para fines comerciales, muchos de los modelos más famosos tienen esa restricción.

Me esta saliendo este error cuando corro llm_falcon(‘What is AI?’):
The following model_kwargs are not used by the model: [‘trust_remote’] (note: typos in the generate arguments will also show up in this list)

Alguna idea de lo que puedo hacer?

Yo tuve que cargar el de facebook, no me cargaba otro. ```js from transformers import AutoTokenizer, pipeline, AutoModelForMaskedLM import torch model_name = "facebook/bart-large-cnn" model = AutoModelForMaskedLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) text_generator = pipeline( "text-generation", model=model, tokenizer=tokenizer, # No especificar el dispositivo ) generated_text = text_generator("Escribe aquí tu prompt o inicio de texto", max_length=50, num_return_sequences=1) print(generated_text[0]['generated_text']) ```
me sale un error ModuleNotFoundError Traceback (most recent call last) [\<ipython-input-6-4214136b1134>](https://localhost:8080/#) in \<cell line: 1>() \----> 1 from langchain import HuggingFacePipeline 2 3 llm\_falcon = HuggingFacePipeline( 4 pipeline = pipeline, 5 model\_kwargs = {
Estoy siguiendo los pasos pero al dia de la fecha hay muchos inconvenientes con las librerias, modelos y demas... quedó muy desactualizado me parece

https://python.langchain.com/docs/integrations/llms/huggingface_pipelines/

Hugging Face Model Hub alberga más de 120.000 modelos, 20.000 conjuntos de datos y 50.000 aplicaciones de demostración (Spaces), todas de código abierto y disponibles públicamente, en una plataforma en línea donde las personas pueden colaborar fácilmente y desarrollar ML juntas.

Lo pude hacer con el modelo 'meta-llama/Llama-2-7b-chat-hf' hay que pedir acceso al modelo y loguearse en hf a la hora de usarlo en google colab.