Introducción a LangChain

1

Desarrollo de aplicaciones con LLM utilizando LangChain

2

Estructura y módulos de LangChain

3

Uso de modelos Open Source de Hugging Face

4

Uso de modelos de OpenAI API

5

Prompt templates de LangChain

6

Cadenas en LangChain

7

Utility chains

8

RetrievalQA chain

9

Foundational chains

Quiz: Introducción a LangChain

Casos de uso de LangChain

10

Casos de uso de LangChain

11

¿Cómo utilizar LangChain en mi equipo?

Quiz: Casos de uso de LangChain

Manejo de documentos con índices

12

¿Cómo manejar documentos con índices en LangChain?

13

La clase Document

14

Document Loaders: PDF

15

Document Loaders: CSV con Pandas DataFrames

16

Document Loaders: JSONL

17

Document Transformers: TextSplitters

18

Proyecto de Chatbot: configuración de entorno para LangChain y obtención de datos

19

Proyecto de Chatbot: creación de documents de Hugging Face

Quiz: Manejo de documentos con índices

Embeddings y bases de datos vectoriales

20

Uso de embeddings y bases de datos vectoriales con LangChain

21

¿Cómo usar embeddings de OpenAI en LangChain?

22

¿Cómo usar embeddings de Hugging Face en LangChaing?

23

Chroma vector store en LangChain

24

Proyecto de Chatbot: ingesta de documents en Chroma

25

RetrievalQA: cadena para preguntar

26

Proyecto de Chatbot: cadena de conversación

27

Proyecto de Chatbot: RetrievalQA chain

Quiz: Embeddings y bases de datos vectoriales

Chats y memoria con LangChain

28

¿Para qué sirve la memoria en cadenas y chats?

29

Uso de modelos de chat con LangChain

30

Chat prompt templates

31

ConversationBufferMemory

32

ConversationBufferWindowMemory

33

ConversationSummaryMemory

34

ConversationSummaryBufferMemory

35

Entity memory

36

Proyecto de Chatbot: chat history con ConversationalRetrievalChain

Quiz: Chats y memoria con LangChain

Evolución del uso de LLM

37

LangChain y LLM en evolución constante

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Curso de LangChain

Curso de LangChain

Omar Espejel

Omar Espejel

¿Cómo utilizar LangChain en mi equipo?

11/37
Recursos

Aportes 6

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

2.2 ¿Cómo utilizar LangChain en mi equipo?

La barrera de entrada es cada vez más pequeña, los costos actuales son cada vez menores. Se necesita de un ingenier@ de software
que sea capaz de programar un sistema que permita la concurrencia de muchos usuarios haciendo multiples peticiones al mismo tiempo.
Se necesita un equipo de software capaz de implementar de forma eficiente el cómo se utiliza un API.

Respecto a los datos y seguridad: si vamos a utilizar un proveedor (OPENAI, COHERE, etc.) hay que conocer la política de privacidad
del uso de los datos (pero realmente los datos sí los pueden conocer ellos y hay que ser conscientes de ello). Si la privacidad
de los datos es fundamental para tu empresa y no quieres que estén en un servidor, puedes utilizar modelos, embeddings y bases
de datos open source.

En el futuro serán vitales las personas que conozcan los sistemas open source que pueden ser utilizados de forma local,
como les podemos entrenar para los datos específicos de nuestro problema a resolver. El tiempo en que una empresa pueda
implementar LangChain y LLMs recae más en puestos de ingeniería de software más que en puestos de data scientist o ml engineer.

El punto es saber cómo conectar con las APIs, escalarlas y después conectar con un proveedor de nube, para que corra el modelo.
Se necesita pensar en:

  • La privacidad de los datos
  • La concurrencia de las peticiones
  • ¿Qué vas a hacer con la información extraída?

Un Ingeniero de Software posee bastantes aproximaciones al emplear una herramienta con AI. Sin embargo, se requiere de un conocimiento transversal en diferentes áreas y no valoramos la inversión de tiempo.
.
El problema de todo Software, se empieza por la documentación y la variación abrupta de ejemplos que intentan explicar un problema. Justo es la razón de la existencia de Platzi, “Educación efectiva”.
.
Finalmente, a mayor capas que encapsulan tu aplicativo, mayor es la experiencia que se requiere por parte del equipo encargado.
.
Concuerdo y respeto con la opinión sobre el acceso a recursos en nuestra época. Pero no olvidemos la misma curva de aprendizaje porque “Si funciona, no significa que esta bien hecho”.
.

El tema aquí de los modelos es el cómputo y el tiempo para ejecutarlo.

cuando sacan un curso usando llama2 con langchain estaria bueno
Difiero un poco con la opinión sobre el tiempo de implementación, quizás en el escenario más ideal si, porque no se están tomando en cuenta variables como "Requerimientos de la organización donde el modelo LLM dará un valor", ya que no todo será "desarrollar un asistente para resolver preguntas"... También esta el caso de la calidad de los datos de la organización... lo de las "2 semanas" para mi es el escenario ideal donde pensamos en una implementación sencilla para un requerimiento sencillo y donde factores como la calidad de los datos juegan a favor. Pero perfectamente podría variar.
opensource es el tiempo presente. nuevas colaboraciones, nuevos modelos y nuevos negocios.