Modelos de razonamiento de ChatGPT y cadenas de pensamiento
Clase 11 de 18 • Curso de Prompt Engineering
Contenido del curso
Clase 11 de 18 • Curso de Prompt Engineering
Contenido del curso
Gabriel Obregón
Mateo Montoya Henao
Héctor Alonso Padilla Ramírez
Julian Mauricio Perez Mora
Héctor Alonso Padilla Ramírez
Ulqernesh Karvenae
Victor Eduardo Ruiz Miranda
Fernando Bravo
Camilo Andres Gutierrez Cuervo
Jefrey Roman Perez
Jose Hernandez
Juan Camilo Mejía Rodríguez
Ana Luisa Bucarito de González
Yadira Eliana Bermúdez Alonso
Henry Norberto Arias Salgado
Edwar Javier Gomez Guerrero
Jefrey Roman Perez
Camilo Andres Gutierrez Cuervo
Jefrey Roman Perez
Alejandra Giraldo Nieto
Catherine Argüello Castro
Jefrey Roman Perez
Juan Laverde
Kenneth Angulo L
Brenda Alexandra Pérez Bedoya
Andrés Fernando Quintana Cifuentes
Charles Castillo Rosas
ALEJANDRO VENTURA OVIEDO
🧠Cadena de pensamiento con ChatGPT
🎯 PROPÓSITO
Domina cómo razona ChatGPT y aprende a:
⚙️ LOS MODELOS Y SUS DIFERENCIAS
💼 Requieren cuenta paga → permiten cambiar modelo y activar modos de razonamiento.
Tipos principales:
🔸 Conclusión:
Cambiar de modelo influye en la velocidad, no tanto en la precisión (en problemas simples).
🍽️ EJEMPLO BASE: “Mesas y sillas”
🧮 Datos: 23 personas • 4 mesas • 6 sillas por mesa
Cálculo: 4 × 6 = 24 → 23 < 24 ➡️ “Alcanza y sobra una silla.”
💡 Observación:
🧩 CÓMO ACTIVAR LA CADENA DE PENSAMIENTO
💬 Prompt clave: “Piensa paso a paso”
Modo Thinking en acción:
1️⃣ Calcula: 4 × 6 = 24
2️⃣ Compara: 24 con 23
3️⃣ Concluye: sobra una silla
4️⃣ Sugiere alternativa: tres mesas con seis, una con cinco
✨ Beneficios del paso a paso:
🔁 TÉCNICA: SELF-CONSISTENCY
💬 Qué es: pedir varias versiones del razonamiento y comparar su consistencia.
Prompt usado:
“Descríbeme el paso a paso… Dame tres alternativas.”
🧠 Resultado:
🎯 Ventaja:
Te permite elegir el enfoque más claro y coherente entre varias opciones.
🧱 PLANTILLAS (TEMPLATES)
🔧 Para qué sirven: Reutilizar un mismo método de razonamiento en distintos problemas.
Ejemplo de plantilla: 🗂️ “Multiplicar y comparar”
Nuevo caso: 300 personas • 50 mesas • 6 sillas por mesa
Cálculo: 50 × 6 = 300 → 300 ≥ 300 ➡️ “Exactamente suficientes sillas.”
🕒 Comparación de tiempos:
💡 Conclusión:
Las plantillas reducen la variabilidad, mejoran la precisión y hacen el proceso más predecible.
✨ Resumen Visual de la Clase: Modelos de razonamiento de ChatGPT y cadenas de pensamiento ✨
1. La Idea Central (El Core 💡): Comprender cómo utilizar diferentes modelos de razonamiento en ChatGPT para resolver problemas mediante cadenas de pensamiento.
2. Puntos Clave (En viñetas 📌):
3. El Ejemplo o Dato Crucial 🚀: Al preguntar sobre la cantidad de sillas necesarias para 23 personas, ChatGPT proporciona respuestas rápidas y detalladas dependiendo del modelo (Instantáneo vs. Thinking).
4. Conexión o Siguiente Paso 🔗: Este conocimiento es útil para automatizar flujos de trabajo y mejorar la efectividad de los prompts en proyectos profesionales, optimizando el uso de IA en diversas aplicaciones.
Hola, con que haces estos resumenes ?
Hola @Julian, utilizo Notion.
LOL
XDDDDDDDDDDDDDD chatGPT in a nutshell
Yo uso frases como “vamos paso a paso” o “primero analicemos…”.
¡Esas "frases mágicas" funcionan de maravilla, Camilo!
Activan el modo lógico del modelo al instante.
Yo también uso variaciones como "Analiza primero A antes de concluir B".
Esos pequeños empujones direccionales cambian totalmente la calidad de la salida sin complicar el prompt.
Interesante Camilo!!
Asi como que la facilitamos la respuesta a la IA y nos da respuestas mas detalladas o relacionado a lo que nosotros necesitemos
Esta clase aterriza algo clave: no es solo “promptear mejor”, es gestionar el modo de razonamiento. Me quedó clarísimo que entre automático, instantáneo y Thinking la diferencia principal es tiempo/latencia, no “inteligencia mágica”, y que en problemas simples el instantáneo resuelve igual de bien. Donde Thinking brilla es cuando pides paso a paso y aplicas self-consistency: tres enfoques, misma respuesta → más confianza; enfoques distintos → señal de revisión. Lo más valioso fue llevarlo a operación real con plantillas: estandarizar el método (ej. “multiplicar y comparar”) convierte el razonamiento en un proceso replicable, reduce variabilidad y mejora la previsibilidad del output. En resumen: elegir modelo según objetivo + paso a paso + alternativas + template = control de calidad para usar LLMs con criterio, no por fe.
Excelente dinámica para llegar al promt que queremos!!
Por qué ya no están dentro de las opciones de modelo, la instant y la thinking?
Te lo resumo claro y al grano: no desaparecieron porque sí — los integraron y simplificaron la experiencia.
🔄 1. Retiraron los modelos “Instant” y “Thinking” como opciones visibles
🧠 2. Pero la lógica sigue existiendo (solo que automática)
Antes: Tú elegías: rápido (Instant) vs profundo (Thinking)
Ahora: El sistema decide automáticamente cuánto “pensar” según tu pregunta.
Esto se basa en el modelo unificado de OpenAI que usa un “router inteligente” para ajustar la profundidad sin que tengas que elegir
👉 Es decir: ya no eliges el modo → el modelo lo hace por ti.
🎯 3. ¿Por qué hicieron ese cambio?
Principalmente por 3 razones:
1. Simplificar la interfaz
2. Mejor experiencia automática
3. Evolución del modelo
⚠️ 4. Entonces… ¿qué pasó con “Instant” y “Thinking”?
🧩 En una frase
Antes elegías cómo quería pensar el modelo; ahora el modelo decide por ti.
EL PROBLEMA QUE LA MAYORIA SOLO USAMOS LA VERSION FREE
Un modelo de razonamiento es una estructura que guía cómo un sistema, como ChatGPT, procesa información y llega a conclusiones. En el contexto de la clase, se refiere a la cadena de pensamiento que sigue el modelo para resolver problemas, desglosando los pasos necesarios de manera lógica y estructurada. Esto permite generar respuestas más elaboradas y precisas, al considerar diferentes enfoques y alternativas antes de llegar a una conclusión. Es esencial para formular prompts que optimicen la interacción con modelos de lenguaje.
Excelente definición, Edwar.
Al obligar al sistema a desglosar los pasos, reducimos el margen para alucinaciones.
Es como pedirle que "muestre el trabajo" en un examen de matemáticas; el proceso valida la calidad del resultado final.
¡Clave para prompts robustos! 📝✅
hacer que el modelo razone paso a paso antes de dar una respuesta. Esto mejora la precisión en tareas complejas al descomponer el problema en partes más manejables. yo lo llamo partir el elefante en pedazos
Convertir razonamientos en plantillas ahorra errores.
Lo que más valoré fue pasar de pedir un "paso a paso" suelto a crear templates reutilizables.
Ahora, al fijar la estructura lógica que ya funcionó con el modelo Thinking, garantizo consistencia.
Ya empecé a guardar mis mejores "esqueletos de prompts" en Google Keep para no reescribir la lógica desde cero.
Es increíble cómo acotar la creatividad del modelo mejora la predictibilidad del resultado final.
Elegir modelo impacta la velocidad, no necesariamente la exactitud en problemas simples.
Esta estrategia es perfectamente aplicable para pedirle a los LLMs, solucionar problemas grandes y complejos para descomponer y llegar a las mismas respuestas en diferentes caminos.
Exacto, Catherine. "Divide y vencerás".
Para problemas gigantes, descomponerlos en pasos y pedir múltiples caminos (Self-Consistency) es la única forma de no abrumar al modelo ni a nosotros.
Ver cómo convergen distintas rutas hacia la misma solución da una tranquilidad enorme antes de tomar decisiones complejas. 🧩🔍
Mi conclusión es hacer que el modelo razone pidiéndole varias formas de resolver un problema y escogemos la opción que más creemos que fue eficiente para resolverlo Esos mismos pasos los seguimos usando como prompt para facilitarle al modelo la solución de los siguientes problemas
En esta clase el profesor nos ensena dos cosas:
· Limitar la creatividad y llegar al resultado esperado
· Usar palabras correctas para resolver el problema
De esta forma:
1. Empezar con problema amplio
2. Ver alternativas para resolverlo
3. Elegir alternativa la más efectiva (plantilla)
4. Volver a hacer con el promt aplicando plantilla seleccionada
¿Cómo extraigo una plantilla de razonamiento del modelo?
La mejor forma de extraer una plantilla es hacer ingeniería inversa con la propia IA. Primero, lánzale un problema complejo usando un modelo de razonamiento y pídele explícitamente: "Descríbeme el paso a paso que usarías para resolver esto y dame 3 alternativas". La IA generará diferentes enfoques lógicos. Analiza estas opciones, elige la que sea más robusta y eficiente, y conviértela en tu nueva estructura base. En tus futuros prompts, simplemente dile: "Usa esta plantilla exacta para resolver el siguiente problema: [Inserta tu plantilla]". De esta manera, ya no dependes de que la IA adivine cómo quieres que procese la información, sino que le entregas un molde cognitivo preaprobado que garantiza resultados consistentes y altamente precisos cada vez que cambies las variables del problema.
Genial lo de pedir tres alternativas con self-consistency, así comparas enfoques y no te quedas con una sola respuesta.
Mis notas 💚
Muy buena explicacion hasta el momento, todo interesante, espero ponerlo en practica pronto