El contexto tecnológico de 1998: por qué era tan difícil hacer videojuegos

Clase 3 de 76Curso de Creación de Videojuegos

Resumen

La historia tecnológica de mediados de los noventa explica por qué crear un videojuego entonces era una tarea compleja. Entre hardware limitado, internet lento y una web aún sin Google, el contexto imponía barreras que hoy parecen impensables. Aquí se ordenan los datos clave y se aclaran conceptos como user experience, indexación manual y workstation para 3D.

¿Cómo era el hardware y por qué condicionaba el 3D?

Las máquinas “profesionales” de la época marcaban el ritmo. Se trabajaba con un PC tipo workstation para 3D: monitores de catorce pulgadas, 32 megas de RAM, discos de 3 gigas y tarjetas gráficas de 4 megas. Hoy esas cifras se multiplican por mil: 32 gigas de RAM, 3 teras de disco y 4 gigas de gráfica. La comparación importa porque revela un salto de tres órdenes de magnitud en memoria, almacenamiento y capacidad visual.

¿Qué implicaba “multiplicar por mil” para el desarrollo?

  • Menos memoria, menos margen: 32 megas obligaban a ajustar cada recurso del juego.
  • Almacenamiento escaso: 3 gigas limitaban texturas, audio y versiones.
  • Gráficos contenidos: 4 megas de vídeo condicionaban resolución y efectos.
  • Pantallas pequeñas: catorce pulgadas afectaban cómo se diseñaba la interfaz.

¿Por qué el diseño y el UX eran distintos?

  • El UX no era prioridad: la interfaz no seguía patrones actuales.
  • Estética de la época: uso de Comic Sans, fondos con 256 colores y GIF animado.
  • Audio ligero: músicas en midi por restricciones de tamaño.

¿Cómo era internet y cómo afectaba al aprendizaje?

La conexión habitual avanzó desde 8.000 baudios (8.000 bits por segundo) a 16.000, 28.000 y 56.000. Esa última se vivía como “velocidad de la luz”. Con esos anchos de banda, formarse y acceder a tutoriales era difícil. No existían las carreras actuales ni plataformas de aprendizaje como las de hoy: aprender a programar un videojuego resultaba tedioso.

¿Qué significan esas velocidades para el trabajo diario?

  • Descargas lentas: recursos y ejemplos tardaban minutos u horas.
  • Pruebas costosas: iterar implicaba esperar y optimizar cada archivo.
  • Colaboración limitada: intercambio de materiales con fuerte compresión.

¿Qué papel jugaban las revistas y la prensa?

  • PC Actual (noviembre de 1998) mostraba “Lo mejor de la web”.
  • Selección curada: listas de sitios “impresionantes” con diseños hoy básicos.
  • Referentes informativos: capturas de PCs y tendencias servían de guía.

¿Cómo se encontraba contenido en la web antes de Google?

Hasta finales de 1998, la web funcionaba como un directorio. En 1993, al maquetar una revista propia, ni siquiera existían Yahoo, Lycos o Altavista. Los buscadores posteriores eran más precarios: listaban contenidos por categorías, sin algoritmos sofisticados.

¿Qué era la indexación manual y por qué importaba?

  • Enviar una URL: cualquier persona “agregaba” o “promocionaba” una página.
  • Revisión humana: un operador la añadía días después a la base de datos.
  • Sin rastreadores: no había “bot” o “araña” automática que siguiera enlaces.

¿Qué cambió a finales de 1998?

  • Llegada de Google: irrumpió esas navidades con otra presencia.
  • Nuevo enfoque: más relevancia y menos directorios fijos.
  • Impacto en el acceso: encontrar recursos empezó a ser más rápido.

¿Qué habilidades y conceptos emergen de este contexto?

  • Programar un videojuego: tarea ardua por falta de formación y recursos.
  • Maquetación: diseño de publicaciones con las limitaciones técnicas del momento.
  • Optimización: uso eficiente de RAM, disco y gráfica por obligación.
  • Indexación manual: proceso sin automatización por “bot” o “araña”.
  • Experiencia de usuario: un UX incipiente bajo restricciones de hardware y diseño.

¿Te gustaría compartir cómo viviste esa transición tecnológica o qué te sorprendió más de estas cifras?