Resumen

Aprender a ser AI native empieza hoy. Aquí tienes una guía clara y directa para arrancar tu proyecto con confianza: de las bases como la ventana de contexto y el razonamiento en LLM, hasta cómo elegir modelo por velocidad, precio e inteligencia, practicar prompt engineering, y construir el MVP del MVP con herramientas que aceleran del prototipo al deploy.

¿Qué bases de IA necesitas para ser AI native?

Conocer los fundamentos te ahorra tiempo y dinero. Los LLM procesan grandes volúmenes de texto para generar información nueva y hoy son multimodales: texto, imágenes, audio y video. Pero el punto clave es entender qué entra y qué sale en cada interacción.

¿Qué es la ventana de contexto y por qué importan los tokens?

La ventana de contexto es cuántos tokens puede procesar el modelo en una sola pasada. Incluye tu conversación, archivos cargados, historial y el propio razonamiento que el modelo genere. No incluye su entrenamiento previo.

  • Modelos actuales procesan desde 128k tokens (un estándar) hasta 1M o incluso alrededor de 10M tokens.
  • 128k tokens equivalen aproximadamente a unas 60 páginas.
  • Al llegar al límite, la “memoria” descarta lo más antiguo y prioriza lo reciente.
  • Ventanas más grandes suelen costar más. Evalúa necesidad real vs. costo.
  • Si debes analizar mucho contenido en una sola llamada, busca un modelo con ventana amplia.

¿Qué es el razonamiento y cuándo activarlo?

El razonamiento (thinking) indica al modelo que “piense paso a paso”. Mejora resultados en problemas complejos, pero consume más tiempo y tokens.

  • Hay modelos sin razonamiento para respuestas rápidas y tareas simples.
  • La mayoría ya permite activar o desactivar thinking según el caso.
  • Ejemplos mencionados: ChatGPT-5.2 Thinking, Gemini 3.3 Pro Thinking, modelos Flash como Gemini 3.0 Flash sin thinking para velocidad, y opciones como Extended Thinking y Thinking en Claude Code para depurar código.
  • Ver el “pensamiento en voz alta” ayuda a auditar pasos, útil en debugging.

Además, refuerza tu base con prompt engineering: el prompt son las instrucciones; optimizarlas es clave. Un prompt mediocre arruina incluso al mejor modelo. Estructura, claridad y contexto marcan la diferencia.

¿Cómo elegir el modelo y equilibrar velocidad, inteligencia y precio?

Selecciona con criterio y prueba. Lo ideal surge del balance entre lo que necesitas y lo que puedes pagar, no solo del “mejor” modelo en abstracto.

¿Qué dicen los benchmarks sobre inteligencia y rapidez?

Los benchmarks ayudan a comparar. Se destacó que GPT 5.2 lidera en “inteligencia” y que Anthropic (Claude Opus) y Google (Gemini 3) compiten de cerca. También se mencionaron DeepSeek, Mistral y Meta, con rendimientos distintos.

  • Para equilibrio inteligencia/tiempo: Gemini 3 Flash Thinking ofrece una gran relación.
  • Claude 4.5 Opus y Sonnet 4.5: más inteligentes, pero más lentos.
  • GPT 5.1/5.2: muy capaces, con tiempos mayores que opciones Flash.

¿Cómo impacta el precio en tu decisión?

El precio importa tanto como el rendimiento.

  • Gemini destaca por su relación precio-calidad.
  • Claude suele ser más costoso, aunque muy fiable en tareas complejas.
  • Si necesitas resultados “fehacientes” y no tienes muchas solicitudes, Claude es fuerte.
  • Si buscas rapidez y ahorro, comienza con Gemini 3 Flash o incluso Grok.
  • No descartes: prueba 2–3 modelos sobre tu caso real y quédate con el que mejor performa.

¿Qué proyecto construir y con qué herramientas?

El éxito nace de un problema real y concreto. Practica a diario durante los 21 días y aplica la regla KISS (keep it simple, stupid): empieza pequeño, itera, lanza y aprende del feedback.

¿Cómo encontrar un problema real y simple?

  • Empieza por algo simple de tu día a día. Ejemplo: predecir cuándo se dañan los bananos y enviar alertas con recetas.
  • Busca en tus hobbies. Recomendador de libros o música según lo que ya te gustó.
  • Habla con amigos y familia. Surgen problemas reales y tienes usuarios para probar.
  • Conecta capacidades de IA con el problema. Ejemplo: generar imágenes de platos a partir de menús sin fotos para decidir mejor qué pedir.

¿Cómo definir hipótesis y crear el MVP del MVP?

  • Redacta la hipótesis: “si hago X así, lograré Y para este usuario”.
  • Crea el MVP del MVP hoy mismo.
  • Diagrama de flujo en una hoja.
  • Interfaz en papel con pantallas y acciones.
  • Documento de una página con problema, hipótesis y solución deseada.
  • Lista datos y restricciones: qué información necesitas, si existe un dataset público o hay que crearlo, cuántas muestras, cómo obtenerlas.
  • Lanza e itera: compártelo con 5–10 personas, recoge feedback y ajusta.

¿Qué herramientas aceleran del prototipo al deploy?

  • Cloud Code: agente en terminal que te guía por stack, framework y código; integra con Cursor y permite idear y construir.
  • B0 (Vercel): chat que diseña la interfaz, genera código y permite desplegar para probar.
  • Magic Patterns: modifica proyectos existentes desde el navegador con HTML, también sirve desde cero y devuelve código utilizable.
  • Lovable: flujos completos low code y aplicación end to end con front end y back end.
  • 8n/N8N: orquesta LLM dentro de flujos con Excel, correos, APIs y más; con o sin código.

Tips rápidos de la sesión: - Antigravity (CLI de Google): similar a Cloud Code; pruébalo y revisa planes gratuitos. - Perplexity: plataforma que conecta varios LLM y facilita búsquedas y scraping; para resolver tareas generales suelen preferirse GPT, Claude o Gemini. - Cursor: soporta múltiples LLM y permite conectar tus propias APIs. - GitHub Copilot: puede usar modelos de Claude, pero no invoca el CLI de Cloud Code.

Logística del reto AI Native: - Ruta y cursos diarios: platzi.com/reto. Live classes programadas en platzi.com/comunidad. - Horarios en vivo: 4:00 pm Colombia, 3:00 pm México, 6:00 pm Argentina. - Grabaciones: se suben al curso del reto tras cada sesión. - Participación: se requiere suscripción paga a Platzi para competir en el reto; las live classes pueden verse sin ella. - Entrega de proyectos: del 26 de enero al 1 de febrero. Incluye descripción y link público. Los 10 con más votos ganan una suscripción de un año de N8N. - Puedes subir varios proyectos. El premio es por proyecto y por una persona. - No es imprescindible programar. Lo esencial es la curiosidad y construir algo funcional que cualquiera pueda usar.

¿Qué problema vas a resolver y cómo será tu MVP del MVP? Cuéntalo en los comentarios y comparte tu avance para recibir feedback de la comunidad.