Flujo para generar una respuesta con LangChain
- Primero comenzamos con datos
- Luego se convierten en numero con embebbing
- Luego se guardan en una base de datos vectorial
- A partir del guardado se crea un prompt para empezar a hacer preguntas
- La pregunta al humano se combina con el promp y lo recibe un modelo de LLM (Large Lenguaje Model)
- Esto ultimo es la que genera la respuesta.
Sin embargo hay procesos que pueden o no ocurrir. Por ejemplo para el procesamiento de datos se pueden limpiar, generar resumenes, seleccionar metada especifica y posteriormente fragmentarlo para enviarlo al modelo de embebbing.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?