Esta muy bueno para repo para aprender de hecho y tener un asistente de estudio segun la data especifica que le tengamos!, voy a compartir mi propuesta de repo para mejorarlo 💚
Introducción a LangChain
Creación de un sistema de preguntas y respuestas con LangChain
Estructura y Uso de Langchain en Python
Carga de Modelos Open Source con Lanchain y Hugging Face
Uso de Modelos OpenAI con LangChain: Guía Práctica para Principiantes
Creación de Prompts Dinámicos con LangChain
Uso de Cadenas en Modelos de Lenguaje con Language Chain
Procesamiento de PDFs y creación de resúmenes con LangChain
Creación de Cadenas de Preguntas y Respuestas con Modelos de Lenguaje
Creación de cadenas secuenciales en Python para procesamiento de texto
Quiz: Introducción a LangChain
Casos de uso de LangChain
Aplicaciones y Beneficios de Lancheng en el Manejo de LLMs
Implementación de Lanchain y LLMs: Costos, Privacidad y Buenas Prácticas
Quiz: Casos de uso de LangChain
Manejo de documentos con índices
Carga de Documentos en Langchain para Creación de Índices
Fundamentos de la Clase Document en Langchain
Carga y Transformación de Documentos No Estructurados con Landship
Lectura de CSV y conversión a DataFrame de Pandas y LangChain
Creación de un Cargador de JSON-Lines Personalizado en Python
Fragmentación de Documentos con TextSplitter en Langsteam
Creación de un Chatbot con Documentación de Hugging Face
Creación de Índice Vectorial con Langchain y Embeddings
Quiz: Manejo de documentos con índices
Embeddings y bases de datos vectoriales
Creación de Índices con Embeddings y Bases de Datos Vectoriales
Creación y uso de embeddings con OpenAI y Lanchain
Modelos de Embeddings Open Source en Español con Sentence Transformers
Creación y Gestión de Bases de Datos Vectoriales con Chroma
Creación y manejo de bases de datos vectoriales con OpenAI Embeddings
Creación y Uso de un Retriever en Chroma para Consultas Avanzadas
Modelo de Chat para Preguntas y Respuestas con LangChain y Chroma
Creación de un Chatbot para Preguntas con Bases de Datos Vectoriales
Quiz: Embeddings y bases de datos vectoriales
Chats y memoria con LangChain
Memoria de Corto Plazo en Chatbots: Implementación y Optimización
Creación y Uso de Modelos de Chat con OpenAI y LangChain
Creación de Plantillas Dinámicas para Prompts de Chat en Langstead
Memoria en chatbots: Implementación con ConversationBufferMemory
Configuración de ConversationBufferWindowMemory en Chatbots
Memoria de Resumen de Conversaciones con Chat GPT-3.5
Gestión de Memoria en Chatbots con ConversationSummaryBufferMemory
Memoria de Entidades en Chatbots para Soporte de Ventas
Implementación de Chatbot con Memoria en Python usando Langchain
Quiz: Chats y memoria con LangChain
Evolución del uso de LLM
Creación de Chatbots con Modelos de Lenguaje y Bases de Datos Vectoriales
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Cuando se trata de integrar inteligencia artificial en nuestras aplicaciones, uno de los aspectos más críticos es elegir y configurar el modelo correcto. En este caso, aprenderemos cómo inicializar un modelo de chat de OpenAI utilizando la biblioteca LangChain. Este proceso incluye definir una serie de hiperparámetros que pueden ajustarse para satisfacer necesidades específicas del usuario.
Para comenzar, primero importamos el módulo necesario de LangChain: chatOpenAI
. Este módulo nos permitirá interactuar con la API de OpenAI y crear una instancia del modelo de lenguaje que actuará como motor de nuestro chat.
from langchain.chat_models import ChatOpenAI
llm = ChatOpenAI(
model_name="gpt-3.5-turbo",
temperature=0.2,
max_tokens=1000
)
Un aspecto esencial de nuestro sistema es permitir que los usuarios interactúen con el modelo. Para esto, creamos una función llamada runConversation
que determinará cómo se realizará esta interacción.
chatType
que decidirá si el modo es de preguntas y respuestas (QA) o si tiene memoria para registrar la conversación.Además, configuraremos una función que imprime mensajes iniciales para orientar al usuario sobre el tipo de interacción que tendrán.
def runConversation(vector_store, chat_type):
print(f"Iniciando chat en modo {chat_type}.")
if chat_type == "QA":
print("Utilizando chatbot en modo preguntas y respuestas.")
Para encontrar las respuestas más relevantes, convertimos el Vector Store en un Retriever, encargándose de buscar los fragmentos de texto que son más similares a la consulta del usuario.
retriever = vector_store.as_retriever(search_kwargs={"k": 3})
Por último, incorporar un loop infinito permitirá una interacción continua simulando la experiencia de un chat.
while True:
query = get_query_from_user()
if query.lower() == "salir":
break
response = process_qa_query(query, retriever, llm)
print(response)
process_qa_query
devuelve la respuesta procesada desde el modelo de lenguaje (LLM).En resumen, con una adecuada configuración del modelo de lenguaje y una interfaz bien diseñada, logramos crear una experiencia interactiva de preguntas y respuestas, utilizando la inteligencia artificial para proporcionar respuestas informadas y útiles a las consultas de los usuarios.
Aportes 1
Preguntas 1
Esta muy bueno para repo para aprender de hecho y tener un asistente de estudio segun la data especifica que le tengamos!, voy a compartir mi propuesta de repo para mejorarlo 💚
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?