Herramientas de agentes IA: definición y orquestación con LangGraph
Clase 6 de 13 • Curso para Crear Agentes de AI con MongoDB
Resumen
La clave para construir agentes confiables está en diseñar herramientas bien definidas, usar memoria con criterio y orquestar todo con un framework robusto como LangGraph. Aquí verás cómo el modelo piensa y el agente actúa: el primero decide qué usar, el segundo ejecuta las llamadas y entrega resultados en lenguaje natural.
¿Qué son las herramientas y por qué importan?
Las herramientas son interfaces que permiten al agente interactuar con el mundo externo para cumplir objetivos. Pueden ser APIs, búsquedas, otros modelos, bases de datos vectoriales o modelos especializados. En código, se definen como funciones para que el modelo sepa cómo y cuándo llamarlas.
- Se definen como funciones con un esquema claro.
- El LLM identifica cuándo llamar y qué argumentos usar.
- El esquema se brinda al modelo como input para guiar su uso.
- La herramienta puede ser, por ejemplo, un API de clima.
¿Cómo decide el modelo qué función llamar?
El modelo revisa las herramientas disponibles y el esquema de cada una. Si la tarea es consultar el clima, no busca en memoria ni en la web: usa la herramienta de clima que ya tiene definida. Así, evita pasos innecesarios y acelera la solución.
¿Qué papel cumple el framework LangGraph?
Se usa LangGraph para orquestar el agente. Es una librería práctica: basta con añadir un decorator “tool” a la función para que el orquestador la marque como herramienta y el modelo pueda invocarla cuando la necesite. Esto simplifica el flujo de llamadas y la integración de múltiples herramientas.
¿Cómo cooperan modelo, agente y memoria?
El modelo razona y planifica. El agente ejecuta y reúne datos. La memoria preserva contexto para mejorar la continuidad y el aprendizaje de interacciones pasadas.
- El que hace la llamada no es el modelo: es el agente.
- El modelo está desconectado; solo piensa y decide.
- La memoria de corto plazo mantiene continuidad en la conversación.
- La memoria de largo plazo amplía el contexto, pero eleva la complejidad y el costo de búsqueda.
¿Qué diferencia hay entre modelo y agente al ejecutar llamadas?
El modelo indica: “tengo esta herramienta y resuelve la tarea”. El agente realiza la llamada al API mediante una petición REST, procesa la respuesta y se la devuelve al modelo para decidir el siguiente paso. Así se separan el razonamiento de la ejecución.
¿Cómo opera la memoria de corto y largo plazo?
La corto plazo guarda lo reciente para responder con fluidez. Si preguntas cuál fue la ciudad consultada antes, el agente responde “San Francisco” sin llamar a herramientas. La largo plazo conserva historial extenso para dar más contexto temporal, pero su gestión requiere más recursos.
¿Cómo se resuelve una consulta de clima paso a paso?
Ejemplo: “¿Cuál es el clima en San Francisco hoy?”. El flujo ilustra la colaboración entre modelo, agente, herramientas y memoria.
- El modelo identifica la necesidad de información actual.
- Selecciona la herramienta adecuada: API de clima.
- El agente hace la llamada REST al API.
- Llega la respuesta: “72 grados Fahrenheit”.
- El modelo decide si es suficiente o si requiere otra herramienta.
- Si basta, genera lenguaje natural claro para el usuario.
¿Qué pasa si la herramienta falla?
Si el API responde con un 404, el modelo determina que la información no resuelve la petición y decide usar otra herramienta, por ejemplo un API de búsqueda conectado con Google. El agente ejecuta la nueva llamada hasta obtener datos útiles.
¿Cómo se elabora la respuesta en lenguaje natural?
Cuando el modelo considera que ya tiene lo necesario, sintetiza la salida para personas: “Está soleado, 72 grados, no necesitas paraguas”. Así se percibe una conversación natural aunque detrás haya múltiples pasos técnicos.
¿Te gustaría comentar cómo defines tus herramientas o cómo gestionas la memoria de tus agentes? Comparte tu experiencia y dudas.