- 1

Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto
01:40 - 2

Creación de prompts efectivos para análisis de documentos con IA
14:06 - 3

Cómo interpretan los LLM el significado de las palabras
08:53 - 4

Cómo definir roles efectivos en prompts de IA
05:55 quiz de Fundamentos prácticos de la IA generativa
Creación de agentes personalizados con IA para empresas
Clase 13 de 18 • Curso de Prompt Engineering
Contenido del curso
- 11

Modelos de razonamiento de ChatGPT y cadenas de pensamiento
08:59 - 12

Prompt chaining: dividir tareas complejas en pasos independientes
08:15 - 13

Creación de agentes personalizados con IA para empresas
18:40 - 14

Configuración de temperatura y Top-P en Google AI Studio
09:46 quiz de Tecnicas de razonamiento para tareas complejas
Domina Microsoft Copilot, Copilot Studio, Google AI Studio, OpenAI Playground y Claude para llevar tus prompts a otro nivel. Aquí verás cómo crear agentes personalizados, conectar conocimiento, comparar modelos y activar acciones automatizadas que escalan en entornos empresariales, sin salirte de buenas prácticas de configuración.
¿Cómo crear y compartir agentes en Microsoft Copilot?
Microsoft Copilot usa modelos de OpenAI (GPT-4 y GPT-5) y ofrece un entorno que brilla por su integración con la suite de Microsoft. Los “agentes” aquí son chats especializados con un prompt inicial, no la definición formal de agente autónomo. Aun así, permiten estandarizar instrucciones, sumar conocimiento y habilitar herramientas.
¿Qué configuraciones clave tiene un agente?
- Nombre, descripción e Instrucciones con tu prompt base.
- Prueba inmediata del chat con ese prompt siempre cargado.
- Ejemplo útil: “Actúa como analista de datos y cuestióname los insights”.
- Respuestas consistentes: mantiene el rol y el tono que definiste.
¿Qué cambia al subir conocimiento vs. adjuntar al chat?
- Knowledge como fuente de consulta: puedes subir “infinitos” archivos.
- No amplía la ventana de contexto: primero busca en los archivos y extrae lo relevante.
- Adjuntar al chat sí ocupa contexto; en Knowledge no.
- Integración con OneDrive para centralizar documentos.
¿Cómo hacerlo más usable para el equipo?
- Sugerencias de inicio: botones que rellenan el prompt inicial.
- Compartir el agente para que cualquiera lo use de forma uniforme.
- Activar o desactivar capacidades: escribir código, generar imágenes, comprensión.
Además, con Copilot Studio puedes pasar de chat a acción. Los Agent Flows permiten conectar Microsoft 365 y ejecutar tareas concretas. Ejemplo claro: al terminar una reunión en Teams, tomar el transcript, generar un resumen y enviarlo por correo automáticamente. Aquí sí hablamos de un agente que actúa sin intervención manual.
¿Cómo experimentar y comparar en Google AI Studio?
Google AI Studio es un playground para diseñar y afinar prompts antes de llevarlos a un agente, GPT o una automatización (por ejemplo, con N8N). Permite nombrar experimentos, guardar versiones y probar con precisión sin contaminación de otros contextos.
¿Qué funciones aceleran tus pruebas?
- Nombrar el experimento para registrar qué estás validando.
- Editar la respuesta del modelo: lo editado entra a la ventana de contexto.
- Rerun para volver a ejecutar el mismo prompt.
- Limpiar respuestas para reiniciar el contexto.
- Crear árboles/ramas de variantes y compararlas en el historial.
- Chat temporal para pruebas aisladas que no guardan memoria.
¿Cómo comparar modelos Gemini 2.5 Pro y 2.5 Flash?
- Ejecución en paralelo: ves dos resultados lado a lado.
- 2.5 Flash: respuestas más instantáneas.
- 2.5 Pro: “se da el tiempo de pensar” más.
- Mide tiempos y tokens por consulta para decidir con datos.
¿Qué parámetros y herramientas puedes controlar?
- Temperatura y top P para ajustar creatividad.
- Conteo de tokens y gestión de ventana de contexto.
- Thinking mode y thinking budget (tokens dedicados a pensar antes de responder).
- Respuestas estructuradas, ejecución de código y búsqueda en Google.
- Elección entre usar solo la base de entrenamiento o habilitar internet para información actual.
¿Qué debes saber del Playground de OpenAI y de Claude?
OpenAI Playground y Claude ofrecen interfaces similares para configurar prompts, elegir modelos y activar herramientas, con diferencias de acceso y pago. Las interfaces cambian con el tiempo: el valor está en ubicar siempre temperatura, top P, herramientas y opciones de razonamiento.
¿Cómo se paga y se accede?
- ChatGPT: suscripción mensual para usar la app.
- OpenAI Playground: cobro por tokens (se menciona ~1 dólar por millón), requiere tarjeta de crédito.
- Si ves dashboard, tu cuenta está lista; si no, pulsa start building y completa datos.
- En Claude: entra a anthropic.com, ve a API build with Claude, luego start building y accede al workbench.
¿Dónde están las configuraciones clave?
- OpenAI: prompt inicial del sistema, mensajes de usuario, agregar o quitar herramientas.
- Modelos con razonamiento: ajusta el esfuerzo mínimo/bajo/medio/alto.
- Claude: en Tools habilitas herramientas; en Model Settings eliges modelo, temperatura, tokens y presupuesto de pensamiento.
- Modelos en Claude: Opus (piensa más tiempo) y Sonnet (más rápido).
¿Cómo generar buenos prompts en Claude?
- Usa el generador de prompts describiendo la tarea.
- Tip práctico: pide “actúa como prompt engineer” para co-crear prompts efectivos.
¿Con qué agente o playground quieres empezar? Comparte tus dudas, casos de uso o configuraciones que quieras probar y seguimos la conversación.