Cómo generar videoensayos completos con IA
Clase 4 de 5 • Desafío IA: Crea videos y animaciones con herramientas avanzadas de IA
Contenido del curso
Crear un videoensayo con inteligencia artificial ya es posible: desde escribir un guion breve con ChatGPT y convertirlo en voz con D-ID, hasta estilizar escenas con Runway Gen-1 y finalizar la edición en Premiere con música generada por IA y subtítulos automáticos. Aquí verás el flujo completo que llevó una imagen inicial a un video terminado, listo para redes.
¿Cómo se diseñó el videoensayo y la narrativa?
La propuesta se enfocó en un videoensayo sobre el espacio con contraste urbano. La base textual nació de un poema generado por ChatGPT y luego editado en Notion para dejar un hilo conductor breve y claro. Se plantearon tres voces: dos en español y una en inglés para el cierre.
- Guion con IA y edición humana. Se parte de texto de ChatGPT; se sintetiza en Notion para ritmo y duración adecuados.
- Voces con D-ID. Se generaron tres avatares parlantes. En español suenan bien; en inglés la naturalidad mejora. El lip sync no es perfecto, pero es usable.
- Inspiración visual. Referentes de videoensayo y videoarte y ejemplos creados con Kiver/Kaiber muestran posibilidades de narrativa y estilo.
¿Qué herramientas impulsaron voz, imagen y música?
El proyecto combinó herramientas para cubrir texto, voz, imagen y sonido sin salir del flujo creativo.
¿Cómo se generó la voz y se preparó el material?
- D-ID: a partir de texto se crea un avatar hablando. Se eligieron modelos y acentos; se dividió el guion en tres fragmentos para variar timbres.
- Remove background: con Runway y Kaiber se eliminó fondo del avatar y se exportó video en MP4 con canal alfa (transparencia) para componer sobre ciudad/espacio.
¿Cómo se estilizó el video con Runway Gen-1?
- Gen-1 aplica un estilo visual a un clip con un prompt. Se probaron estilos como pop art, neón, 3D, glowing.
- Intensidad de estilo: control de 0 a 100. Al 100 la imagen se transforma radicalmente; valores medios conservan detalles originales.
- Resultado: avatares se convirtieron en personajes futuristas y la ciudad en trazos neón. Si el estilo “derrite” la lectura, bajar intensidad o usar palabras como “realistic”.
¿Cómo se creó la música con IA?
- Wavtool: desde un prompt se generó una base de 30 segundos a 120 BPM con pistas separadas: sintetizador, baseline y drums. Ideal para ajustar mezcla en edición.
- Iteración por prompt: se pasó de un sonido 8-bit a uno más futurista y armónico, manteniendo coherencia con el tema espacial.
¿Cómo editar, subtitular y exportar para redes sociales?
La edición final se realizó en Premiere, aunque también se mencionaron CapCut y DaVinci como opciones profesionales.
¿Cómo se mezclaron voces, música y fondos?
- Línea de tiempo: música abajo, voces arriba, clips estilizados encima con transparencia.
- Niveles de audio: música en -24 dB en promedio; voces entre -12 y -6 dB. Ayuda a mantener claridad sin competir con la narración.
- Composición: uso de modos de fusión como Aclarar, Pantalla, Multiplicar, Sobreexponer o Disolver y ajustes de opacidad para integrar avatares con fondos del espacio y la ciudad.
¿Cómo se generaron subtítulos automáticos?
- Transcripción en Premiere: seleccionar rango (I/O), idioma por tramo (español/inglés), pista de voz, y crear transcripción.
- Subtítulos: botón de crear subtítulos y luego ajuste de tipografía, tamaño y posición. Considerar márgenes seguros para interfaces móviles.
- Ventaja: proceso antes manual ahora es rápido y preciso gracias a IA. CapCut y Runway también ofrecen transcripción.
¿Qué considerar al exportar para múltiples formatos?
- Exportación en Premiere: Ctrl/Command + M, usar match source o preset de mobile device 1080p (full HD) según plataforma.
- Versión vertical: duplicar secuencia y cambiar a 1080 x 1920. Reencuadrar elementos y ajustar subtítulos para una lectura limpia en mobile.
- Notas de flujo: aunque Adobe no “anuncie” todo como IA, funciones como estabilización, cámara lenta y transcripción ya integran aprendizaje automático. También sigue en desarrollo Adobe Firefly para imágenes por prompt.
¿Cómo participar en la comunidad y entregar el proyecto?
- Tema del reto: exploración espacial. Publica tu video en redes (Instagram, TikTok, YouTube, etc.).
- Usa el hashtag #creandoconplatzi y deja el enlace en comentarios del curso del reto para recibir feedback y facilitar la revisión.
- Fecha de entrega: 19 de abril. Habrá ganadores y menciones. Únete al Discord de Platzi para compartir avances, dudas y herramientas.
¿Con qué parte te gustaría experimentar más: prompting en Runway, voces con D-ID o mezcla en Premiere? Deja tus preguntas y comparte tu proceso en los comentarios.