Aprender a ser AI native empieza hoy. Aquí tienes una guía clara y directa para arrancar tu proyecto con confianza: de las bases como la ventana de contexto y el razonamiento en LLM, hasta cómo elegir modelo por velocidad, precio e inteligencia, practicar prompt engineering, y construir el MVP del MVP con herramientas que aceleran del prototipo al deploy.
¿Qué bases de IA necesitas para ser AI native?
Conocer los fundamentos te ahorra tiempo y dinero. Los LLM procesan grandes volúmenes de texto para generar información nueva y hoy son multimodales: texto, imágenes, audio y video. Pero el punto clave es entender qué entra y qué sale en cada interacción.
¿Qué es la ventana de contexto y por qué importan los tokens?
La ventana de contexto es cuántos tokens puede procesar el modelo en una sola pasada. Incluye tu conversación, archivos cargados, historial y el propio razonamiento que el modelo genere. No incluye su entrenamiento previo.
- Modelos actuales procesan desde 128k tokens (un estándar) hasta 1M o incluso alrededor de 10M tokens.
- 128k tokens equivalen aproximadamente a unas 60 páginas.
- Al llegar al límite, la “memoria” descarta lo más antiguo y prioriza lo reciente.
- Ventanas más grandes suelen costar más. Evalúa necesidad real vs. costo.
- Si debes analizar mucho contenido en una sola llamada, busca un modelo con ventana amplia.
¿Qué es el razonamiento y cuándo activarlo?
El razonamiento (thinking) indica al modelo que “piense paso a paso”. Mejora resultados en problemas complejos, pero consume más tiempo y tokens.
- Hay modelos sin razonamiento para respuestas rápidas y tareas simples.
- La mayoría ya permite activar o desactivar thinking según el caso.
- Ejemplos mencionados: ChatGPT-5.2 Thinking, Gemini 3.3 Pro Thinking, modelos Flash como Gemini 3.0 Flash sin thinking para velocidad, y opciones como Extended Thinking y Thinking en Claude Code para depurar código.
- Ver el “pensamiento en voz alta” ayuda a auditar pasos, útil en debugging.
Además, refuerza tu base con prompt engineering: el prompt son las instrucciones; optimizarlas es clave. Un prompt mediocre arruina incluso al mejor modelo. Estructura, claridad y contexto marcan la diferencia.
¿Cómo elegir el modelo y equilibrar velocidad, inteligencia y precio?
Selecciona con criterio y prueba. Lo ideal surge del balance entre lo que necesitas y lo que puedes pagar, no solo del “mejor” modelo en abstracto.
¿Qué dicen los benchmarks sobre inteligencia y rapidez?
Los benchmarks ayudan a comparar. Se destacó que GPT 5.2 lidera en “inteligencia” y que Anthropic (Claude Opus) y Google (Gemini 3) compiten de cerca. También se mencionaron DeepSeek, Mistral y Meta, con rendimientos distintos.
- Para equilibrio inteligencia/tiempo: Gemini 3 Flash Thinking ofrece una gran relación.
- Claude 4.5 Opus y Sonnet 4.5: más inteligentes, pero más lentos.
- GPT 5.1/5.2: muy capaces, con tiempos mayores que opciones Flash.
¿Cómo impacta el precio en tu decisión?
El precio importa tanto como el rendimiento.
- Gemini destaca por su relación precio-calidad.
- Claude suele ser más costoso, aunque muy fiable en tareas complejas.
- Si necesitas resultados “fehacientes” y no tienes muchas solicitudes, Claude es fuerte.
- Si buscas rapidez y ahorro, comienza con Gemini 3 Flash o incluso Grok.
- No descartes: prueba 2–3 modelos sobre tu caso real y quédate con el que mejor performa.
¿Qué proyecto construir y con qué herramientas?
El éxito nace de un problema real y concreto. Practica a diario durante los 21 días y aplica la regla KISS (keep it simple, stupid): empieza pequeño, itera, lanza y aprende del feedback.
¿Cómo encontrar un problema real y simple?
- Empieza por algo simple de tu día a día. Ejemplo: predecir cuándo se dañan los bananos y enviar alertas con recetas.
- Busca en tus hobbies. Recomendador de libros o música según lo que ya te gustó.
- Habla con amigos y familia. Surgen problemas reales y tienes usuarios para probar.
- Conecta capacidades de IA con el problema. Ejemplo: generar imágenes de platos a partir de menús sin fotos para decidir mejor qué pedir.
¿Cómo definir hipótesis y crear el MVP del MVP?
- Redacta la hipótesis: “si hago X así, lograré Y para este usuario”.
- Crea el MVP del MVP hoy mismo.
- Diagrama de flujo en una hoja.
- Interfaz en papel con pantallas y acciones.
- Documento de una página con problema, hipótesis y solución deseada.
- Lista datos y restricciones: qué información necesitas, si existe un dataset público o hay que crearlo, cuántas muestras, cómo obtenerlas.
- Lanza e itera: compártelo con 5–10 personas, recoge feedback y ajusta.
¿Qué herramientas aceleran del prototipo al deploy?
- Cloud Code: agente en terminal que te guía por stack, framework y código; integra con Cursor y permite idear y construir.
- B0 (Vercel): chat que diseña la interfaz, genera código y permite desplegar para probar.
- Magic Patterns: modifica proyectos existentes desde el navegador con HTML, también sirve desde cero y devuelve código utilizable.
- Lovable: flujos completos low code y aplicación end to end con front end y back end.
- 8n/N8N: orquesta LLM dentro de flujos con Excel, correos, APIs y más; con o sin código.
Tips rápidos de la sesión:
- Antigravity (CLI de Google): similar a Cloud Code; pruébalo y revisa planes gratuitos.
- Perplexity: plataforma que conecta varios LLM y facilita búsquedas y scraping; para resolver tareas generales suelen preferirse GPT, Claude o Gemini.
- Cursor: soporta múltiples LLM y permite conectar tus propias APIs.
- GitHub Copilot: puede usar modelos de Claude, pero no invoca el CLI de Cloud Code.
Logística del reto AI Native:
- Ruta y cursos diarios: platzi.com/reto. Live classes programadas en platzi.com/comunidad.
- Horarios en vivo: 4:00 pm Colombia, 3:00 pm México, 6:00 pm Argentina.
- Grabaciones: se suben al curso del reto tras cada sesión.
- Participación: se requiere suscripción paga a Platzi para competir en el reto; las live classes pueden verse sin ella.
- Entrega de proyectos: del 26 de enero al 1 de febrero. Incluye descripción y link público. Los 10 con más votos ganan una suscripción de un año de N8N.
- Puedes subir varios proyectos. El premio es por proyecto y por una persona.
- No es imprescindible programar. Lo esencial es la curiosidad y construir algo funcional que cualquiera pueda usar.
¿Qué problema vas a resolver y cómo será tu MVP del MVP? Cuéntalo en los comentarios y comparte tu avance para recibir feedback de la comunidad.