Renderizado y Controladores en Realidad Virtual con Unity
Clase 5 de 33 • Curso de VR con Unity
Contenido del curso
Creando nuestro mundo 3D en Unity
- 6

Crear terreno 3D en Unity con Standard Assets
08:42 min - 7

Creación de Escenarios en Unity: Terreno y Erosión Realista
10:19 min - 8

Texturización de terrenos en Unity: creación de entornos realistas
10:56 min - 9

Cómo pintar árboles en Unity para VR
06:54 min - 10

Añadir césped y efectos de viento en Unity 3D
06:57 min - 11

Configurar skybox de seis lados en Unity
06:53 min - 12

Integración de Armas y Escudo en Realidad Virtual con HTC Vive
12:09 min
El realismo del VR: Programando a nuestro personaje
- 13

Programación de Lógica de Armas en Realidad Virtual
10:22 min - 14

Mapeado de controles HTC Vive en Unity
10:08 min - 15

Controles VR: grip y gatillo en Unity
10:02 min - 16

Configuración de Bolas de Fuego en Unity para Realidad Virtual
09:21 min - 17

Disparo de bola de fuego en VR
10:11 min - 18

Corrección de bugs: recarga y audio en armas Unity
04:44 min - 19

Colliders y Rigidbody en el diseño de personajes y armas en Unity
08:25 min - 20

Sistema de vida reutilizable en Unity
05:23 min
El realismo del VR: Creación de HUD (Heads Up Display) y generando enemigos
- 21

HUD en VR: canvas anclado a cámara
08:50 min - 22

Configuración de Barras de Vida y Maná en Unity
05:54 min - 23

Programación de Daño en Videojuegos: Lógica de Armas y Magia
11:07 min - 24

Slider Unity: vida y maná en un script
08:00 min - 25

Cómo configurar un dragón enemigo en Unity
11:40 min - 26

Colliders y barras de vida para dragones
08:31 min - 27

Animaciones de Muerte y Desaparición de Enemigos en Unity
10:01 min - 28

Cómo crear oleadas de dragones con portal
11:24 min
El realismo del VR: Programando la IA de nuestro juego
Domina la realidad virtual en Unity ajustando el renderizado estereoscópico, la tasa de FPS y la visualización de controladores HTC Vive con un flujo de trabajo probado. Aquí encontrarás las decisiones clave: desde cómo ver cada ojo en la pestaña Game hasta importar el Vive Input Utility para detectar y usar los mandos con precisión.
¿Cómo optimizar el renderizado VR y los FPS en Unity?
Para VR, Unity renderiza dos imágenes: ojo izquierdo y derecho. Esa “pantalla partida” en Game refleja la visión estereoscópica que genera profundidad. Esto implica el doble de coste: si un juego va a 60 FPS, en VR necesitas 120 FPS (60 por ojo). Evita bajar de 90 FPS, porque empieza a ser molesto. Probar con las gafas es esencial para validar comodidad y naturalidad visual.
- Ver por ojo: izquierda, derecha o ambos desde Game.
- Activar mallas de oclusión: circulitos que simulan los bordes de las gafas.
- Maximizar al reproducir: ver a pantalla completa para depurar mejor.
- Consultar Stats: confirmar que se mantiene por encima de 120 FPS y no cae por debajo de 90.
- Moderar assets y animaciones: demasiados recursos pueden tumbar el frame rate.
- Considerar el hardware: VR exige más potencia y conexiones como HDMI y USB.
¿Qué plug-in de la Asset Store facilita los controladores de HTC Vive?
Para ver y detectar los controladores en pantalla, se importa el Vive Input Utility de Vive Software. Pesa ~5 MB e incluye utilidades listas para usar: colliders, punteros 3D, métodos de ray cast, scripts y prefabs. El objetivo es renderizar no solo la cámara, sino también las manos y trackers, alineados con el mundo físico para que la interacción sea natural.
¿Cómo configurar el Vive camera rig sin conflictos?
Dentro del paquete, usa el prefab Vive camera rig. Este artefacto trae cámara, mano derecha, mano izquierda y trackers. Evita tener dos cámaras principales: elimina la main camera del proyecto y conserva el Vive camera rig como cámara principal. Al darle a play, verás los controladores superpuestos donde están en tu mesa real, lo que facilita agarrarlos y orientarlos con precisión.
¿Qué ajustes recomienda el plug-in para compatibilidad y color?
El paquete sugiere parámetros que puedes adaptar según tu plataforma:
- Virtual reality supported con Oculus: activar si quieres soporte Oculus.
- Build Target: sugiere Windows 64; si trabajas en Mac OS, ignora ese cambio.
- Display resolution dialog: ocultarlo por defecto para no ver el diálogo inicial.
- Pantalla redimensionable: permitir ventana redimensionable si lo necesitas.
- Espacio de color: ajustar al espacio usado por las cámaras VR para evitar artefactos.
¿Qué habilidades y conceptos aplicarás paso a paso?
- Configurar visión estereoscópica: entender por qué se ven dos ojos y su impacto en FPS.
- Gestionar rendimiento: apuntar a 120 FPS y no caer de 90.
- Importar e integrar plug-ins: agregar Vive Input Utility y sus prefabs.
- Evitar conflictos de cámara: usar un único rig principal.
- Visualizar y alinear controladores: manos y trackers coherentes con el mundo físico.
- Usar utilidades VR: colliders, punteros 3D y ray cast para interacción.
¿Cómo evolucionará el gameplay con los controladores?
Con los controladores visibles y operativos, el siguiente paso es mapearlos a objetos de juego: convertir uno en escudo y otro en espada, e incluso usar un bastón que lance fuego. Antes, necesitas un entorno donde moverte: hoy no hay aún suelo ni referencias en la escena, así que primero se construye el universo y después se añaden elementos de gameplay.
- Preparar el entorno: crear el espacio 3D donde caminar.
- Mapear controladores a armas: escudo y espada para interacción directa.
- Iterar con pruebas en VR: validar distancia y ergonomía como en el mundo real.
¿Qué dudas tienes sobre la configuración del Vive camera rig, el control de FPS o la integración del Vive Input Utility? Comparte tu caso y te ayudo a ajustarlo.