Resumen

Cuando necesitas que un modelo de lenguaje resuelva una tarea compleja, la tentación natural es escribir un solo prompt enorme y esperar un resultado perfecto. El problema es que eso agranda la ventana de contexto, aumenta las alucinaciones y hace que el modelo olvide instrucciones. Existe una técnica mucho más eficiente que funciona exactamente como una línea de ensamblaje: cada estación tiene un propósito claro, produce un resultado definido y alimenta a la siguiente.

¿Qué es prompt chaining y por qué funciona como una fábrica de autos?

La analogía es directa [0:06]: en una fábrica de automóviles nadie dice "quiero un auto" y espera que aparezca completo. Hay una estación para la carrocería, otra para las puertas, otra para el sistema eléctrico, otra para el motor y otra para la cojinería. Cada estación entrega un resultado específico que la siguiente estación necesita para continuar.

Prompt chaining aplica exactamente esa lógica. En lugar de un prompt gigante que diga "crea una estrategia de marketing para el siguiente trimestre", dividimos el problema en pasos donde:

  • Cada paso es un prompt independiente.
  • El resultado de un paso se copia al siguiente.
  • Cada nuevo paso se ejecuta en un chat nuevo para mantener limpia la ventana de contexto.

Esto se diferencia de chain of thought y self-consistency [0:49] porque no solo pedimos un razonamiento paso a paso dentro de una misma conversación, sino que físicamente separamos cada paso en una interacción distinta.

¿Cómo se ve en un flujo real de contenido?

Un ejemplo práctico [1:19]: tienes un artículo de blog y quieres crear publicaciones para Instagram. La cadena sería:

  • Extraer los puntos clave del artículo.
  • Convertir cada punto en una publicación para Instagram.
  • Crear la pieza gráfica para cada publicación.
  • Redactar el texto que acompaña cada pieza.

Cada resultado alimenta el siguiente eslabón hasta tener contenido listo para publicar.

¿Por qué no hacerlo todo en una sola conversación?

El problema de mantener todo en un solo chat [1:49] es que la ventana de contexto crece con cada mensaje. A medida que crece, el modelo puede cometer más errores, generar alucinaciones o perder de vista instrucciones anteriores. Separar los pasos en chats nuevos mantiene cada interacción enfocada y precisa.

¿Cómo aplicar prompt chaining con un caso real de cambio climático?

El ejemplo detallado usa el reporte del Climate Change Committee de Inglaterra publicado en abril de 2025 [2:15]. El objetivo es generar un resumen de 100 palabras sobre causas, efectos y soluciones del cambio climático.

En lugar de subir tres archivos y pedir el resumen directamente, la cadena se divide en tres pasos claros:

  • Paso 1 [3:06]: extraer los cinco puntos más importantes del reporte. Se suben los documentos y se pide únicamente la extracción. El modelo lee los archivos, analiza y entrega cinco mensajes clave con citas de respaldo.
  • Paso 2 [4:17]: copiar esos cinco puntos en un chat nuevo y pedir que los organice en categorías de progreso, recomendaciones e impacto. Se usan etiquetas XML para delimitar claramente dónde empiezan y terminan los datos.
  • Paso 3 [5:12]: copiar la clasificación resultante en otro chat nuevo y pedir el resumen de 100 palabras enfocado en las soluciones más viables.

El resultado final fue un resumen que incluía objetivos medibles por sector, coordinación interdepartamental con mandato en resiliencia, y mainstreaming de la adaptación en planificación y regulación [5:47].

¿Cuál es la ventaja real de iterar cada eslabón por separado?

Lo más valioso de esta técnica [6:21] es que cada paso es un prompt que puedes iterar de forma independiente. Si la extracción de puntos no es suficientemente precisa, mejoras solo ese prompt. Si la clasificación no refleja las categorías que necesitas, ajustas únicamente ese eslabón.

Esto te permite optimizar cada estación de la cadena sin afectar las demás, garantizando que al final de la línea de producción siempre obtengas la misma calidad de resultado. Es como calibrar cada máquina de la fábrica por separado para que el auto final salga perfecto.

Si ya dominas chain of thought, el siguiente nivel natural es separar esos pasos en chats independientes. ¿Has probado dividir tus tareas complejas en cadenas de prompts? Comparte tu experiencia y cuéntanos qué resultados obtuviste.