- 1

Creación de un sistema de preguntas y respuestas con LangChain
13:08 - 2

Estructura y Uso de Langchain en Python
05:24 - 3

Carga de Modelos Open Source con Langchain y Hugging Face
13:13 - 4

Uso de Modelos OpenAI con LangChain: Guía Práctica para Principiantes
07:51 - 5

Creación de Prompts Dinámicos con LangChain
08:59 - 6

Uso de Cadenas en Modelos de Lenguaje con Language Chain
01:54 - 7

Procesamiento de PDFs y creación de resúmenes con LangChain
11:49 - 8

Creación de Cadenas de Preguntas y Respuestas con Modelos de Lenguaje
04:54 - 9

Creación de cadenas secuenciales en Python para procesamiento de texto
14:31 Quiz: Introducción a LangChain
Uso de Modelos OpenAI con LangChain: Guía Práctica para Principiantes
Clase 4 de 37 • Curso de LangChain
Contenido del curso
- 12

Carga de Documentos en Langchain para Creación de Índices
02:58 - 13

Fundamentos de la Clase Document en Langchain
04:38 - 14

Carga y Transformación de Documentos No Estructurados con Landship
06:30 - 15
Lectura de CSV y conversión a DataFrame de Pandas y LangChain
01:19 - 16

Creación de un Cargador de JSON-Lines Personalizado en Python
08:37 - 17

Fragmentación de Documentos con TextSplitter en Langsteam
08:14 - 18

Creación de un Chatbot con Documentación de Hugging Face
07:34 - 19

Creación de Índice Vectorial con Langchain y Embeddings
07:21 Quiz: Manejo de documentos con índices
- 20

Creación de Índices con Embeddings y Bases de Datos Vectoriales
03:42 - 21

Creación y uso de embeddings con OpenAI y Lanchain
05:31 - 22

Modelos de Embeddings Open Source en Español con Sentence Transformers
09:51 - 23

Creación y Gestión de Bases de Datos Vectoriales con Chroma
09:25 - 24

Creación y manejo de bases de datos vectoriales con OpenAI Embeddings
09:20 - 25

Creación y Uso de un Retriever en Chroma para Consultas Avanzadas
07:57 - 26

Modelo de Chat para Preguntas y Respuestas con LangChain y Chroma
08:17 - 27

Creación de un Chatbot para Preguntas con Bases de Datos Vectoriales
05:31 Quiz: Embeddings y bases de datos vectoriales
- 28

Memoria de Corto Plazo en Chatbots: Implementación y Optimización
04:10 - 29

Creación y Uso de Modelos de Chat con OpenAI y LangChain
06:48 - 30

Creación de Plantillas Dinámicas para Prompts de Chat en Langstead
07:12 - 31

Memoria en chatbots: Implementación con ConversationBufferMemory
06:40 - 32

Configuración de ConversationBufferWindowMemory en Chatbots
05:51 - 33

Memoria de Resumen de Conversaciones con Chat GPT-3.5
05:14 - 34
Gestión de Memoria en Chatbots con ConversationSummaryBufferMemory
04:14 - 35

Memoria de Entidades en Chatbots para Soporte de Ventas
12:11 - 36

Implementación de Chatbot con Memoria en Python usando Langchain
12:36 Quiz: Chats y memoria con LangChain
¿Cómo integrar OpenAI con Lancheng?
OpenAI ofrece una variedad de modelos de lenguaje que puedes integrar con Lancheng para generar contenidos ricos e interactivos para diferentes aplicaciones. A continuación, te mostramos cómo puedes utilizar estos modelos de manera efectiva.
¿Cómo configurar el entorno?
-
Instalación de módulos: Primero, asegúrate de tener instalados OpenAI y Lancheng en tu entorno de trabajo. Esto se logra utilizando comandos como
pip install openaiypip install lancheng. -
Obtención de la OpenAI API Key: Este es un paso crucial. Visita la plataforma de OpenAI para desarrolladores para generar y obtener la API Key, esencial para autenticar tus solicitudes.
-
Variables de ambiente: Es conveniente almacenar tu API Key como una variable de ambiente. Esto asegura que Lancheng la cargue automáticamente, eliminando la necesidad de ingresarla manualmente cada vez.
¿Cómo cargar un modelo de OpenAI?
Después de configurar tu entorno, es momento de cargar un modelo de OpenAI utilizando Lancheng. El proceso es sencillo pero poderoso.
- Importa la clase OpenAI de la librería LLMs de Lancheng:
from lancheng.llms import OpenAI - Crea un objeto OpenAI, donde puedes especificar el modelo que deseas utilizar. Por ejemplo, un modelo GPT 3.5:
llm_gpt35 = OpenAI(model_name="gpt-3.5-turbo", n=1, temperature=0.3) - Aquí,
nindica el número de respuestas que quieres recibir, ytemperaturecontrola el grado de creatividad del modelo.
¿Cómo personalizar y utilizar el modelo?
Una vez cargado, puedes ajustar y ejecutar tu modelo para satisfacer tus necesidades específicas.
-
Ejecuta el modelo: Pasa un texto como argumento al modelo para generar respuestas. Por ejemplo:
prompt = "¿Cómo puedo lograr una clase más interactiva para estudiantes virtuales?" response = llm_gpt35.generate(prompt) print(response) -
Múltiples Prompts: Puedes enviar una lista de prompts para procesar varios textos de una sola vez. Utilizando el modelo DaVinci:
llm_davinci = OpenAI(model_name="text-davinci-003", n=2, temperature=0.3) generation = llm_davinci.generate(["Dime un consejo de vida para alguien de 30 años", "Recomiéndame libros similares a Hyperion Cantos"])
¿Cómo optimizar el uso de tokens?
La optimización de tokens es esencial para economizar en costos y maximizar eficiencia. Aquí, LLM Output te ayuda a saber cuántos tokens estás usando.
- Utiliza el atributo
generationspara obtener resultados específicos. - Instala el paquete
tiktokende OpenAI para contar tokens antes de enviar un prompt:tokens_used = llm_gpt35.getNumTokens(prompt)
Esta información te permite ajustar tus prompts para no sobrepasar límites de tokens, ofreciendo control sobre los costos asociados.
Consejos y retos para la implementación
Finalmente, te animo a experimentar con diferentes modelos de OpenAI y prompts. Por ejemplo, prueba modelos como "DaVinci" con prompts variados y analiza los resultados.
- Sugerencias prácticas:
- Ajusta la
temperaturepara encontrar el balance justo entre creatividad y precisión. - Explora la documentación de OpenAI para descubrir otros modelos y opciones avanzadas.
- Ajusta la
Este conocimiento te ayudará a personalizar tus interacciones y mejorar la calidad de los contenidos generados por los modelos de OpenAI en Lancheng. ¡Sigue explorando y perfeccionando tus habilidades!