Resumen

Seguramente les ha pasado: le piden algo a la IA —o a un colega—, reciben el resultado, lo miran y sienten que "no convence", pero no logran explicar exactamente qué le falta. Piden una segunda versión, una tercera, y terminan frustrados sin saber si el problema es el resultado o su propia dificultad para definir qué querían. La causa de fondo es sencilla: no tenían definido de antemano qué era "bueno" y estaban evaluando sobre la marcha, con un criterio que iba cambiando [0:32].

De ahí surge la idea más poderosa de toda la lección: si no pueden describir qué es un buen resultado antes de pedirlo, todavía no están listos para pedirlo [0:49].

¿Cuáles son las tres capas de la calidad?

Pensar en la calidad como algo que tiene tres capas permite evaluar cualquier resultado con mayor precisión [1:01].

  • Forma: ¿se ve bien? ¿Tiene el formato correcto, la extensión apropiada, el tono adecuado, está bien escrito? La IA casi siempre aprueba esta capa. Si piden un correo formal, se verá como un correo formal; si piden una tabla, será una tabla bien organizada [1:05].
  • Contenido: ¿la información es precisa? ¿Los argumentos son sólidos? ¿Los datos son reales? ¿Cubre lo que necesita cubrir? Aquí es donde la IA empieza a fallar sin que se note. Un texto puede verse perfecto en la forma pero tener errores serios de contenido, como las alucinaciones que generan datos inventados con apariencia creíble [1:22].
  • Utilidad: ¿esto realmente resuelve lo que necesito? ¿Puedo usarlo tal cual o requiere mucho trabajo adicional? ¿Cumple el propósito para el que lo pedí? Un resultado puede ser correcto en forma y contenido, y aun así no servir porque no se adapta al contexto, no responde la pregunta real o no es aplicable a la situación particular [1:47].

Si la única forma de evaluar es "¿se ve bien?", los errores van a aparecer, porque la IA siempre va a aprobar esa primera capa [2:12]. Por eso se necesitan criterios que cubran las tres capas en conjunto.

¿Qué es una rúbrica y cómo se construye?

Una rúbrica es simplemente una lista de criterios concretos que definen qué hace bueno a un resultado [2:30]. No necesita ser un documento extenso: pueden ser de tres a cinco preguntas que se responden con "cumple" o "no cumple". Lo importante es que exista antes de pedir o recibir el resultado [2:42].

¿Cómo se ve una rúbrica en la práctica?

El ejemplo del correo que comunica al equipo que no se alcanzó la meta del trimestre lo ilustra con claridad [2:48]:

  • Honestidad emocional: ¿el correo reconoce la frustración del equipo? [2:59]
  • Acciones concretas: ¿incluye al menos dos pasos específicos para el próximo trimestre? [3:05]
  • Tono adecuado: ¿suena como un líder que entiende la situación? [3:13]

Con esos criterios definidos, la evaluación deja de ser vaga. Se puede decir con precisión: "cumple en tono pero le faltan acciones concretas, necesito que agregue dos pasos específicos con responsable y fecha" [3:20]. Eso es retroalimentación precisa, y produce mejoras reales en la siguiente versión.

¿Por qué el juicio humano es insustituible?

Esos criterios salen del conocimiento propio de la situación: de saber qué necesita escuchar el equipo, de entender el contexto real. Ese tipo de juicio no lo puede aportar ninguna herramienta [3:43]. La IA ejecuta, pero la dirección y la evaluación corresponden a quien conoce el propósito detrás del pedido.

¿Cómo crear su propia rúbrica paso a paso?

La invitación es tomar el brief construido previamente con los cuatro elementos del modelo C-I-R-C y hacerse una pregunta clave: si la IA entregara un resultado para esto, ¿qué tendría que tener para que yo diga "esto sí me sirve"? [3:57]

  • Escribir entre tres y cinco criterios concretos.
  • Para cada uno, definir cómo se ve cuando cumple y cómo se ve cuando no cumple.
  • Verificar que los criterios cubran al menos dos de las tres capas: forma, contenido y utilidad [4:17].

Si todos los criterios son de forma —como "que esté bien escrito" o "que tenga buena estructura"— falta profundidad. Se necesita incluir al menos uno de contenido y uno de utilidad [4:24].

Guarden esa rúbrica: será la herramienta que pondrán en práctica en la próxima sesión. Compartan sus resultados y criterios en los comentarios para enriquecer el proceso de todos.