Opciones de Cómputo en la Nube de Google (GCP)

Clase 5 de 22Curso de Introducción a Google Cloud Platform

Contenido del curso

Introducción a Google Cloud Platform

Comienza a utilizar Google Cloud Platform

Resumen

Entender qué tipo de cómputo elegir en la nube puede marcar la diferencia entre semanas de configuración y lanzar tu producto en horas. Google Cloud Platform ofrece un espectro completo de opciones que van desde máquinas virtuales con control total hasta servicios completamente administrados donde solo escribes código. Conocer cada una te permite tomar decisiones estratégicas según el momento y las necesidades de tu proyecto.

¿Qué opciones de cómputo ofrece Google Cloud Platform?

GCP organiza sus servicios de cómputo en un espectro que va de mayor customización a mayor administración. En un extremo está Compute Engine [1:07], que son literalmente máquinas virtuales. Aquí tienes acceso a un sistema operativo completo, generalmente Linux (Debian, Ubuntu, Red Hat) o Windows, y tú te encargas de instalar dependencias, configurar el entorno y mantener todo funcionando. También existe la opción de bare metal [1:23], es decir, máquinas físicas reales, reservadas para casos con requisitos especiales de licencias.

El siguiente nivel es Google Kubernetes Engine (GKE) [2:10], donde el protagonista es el contenedor. Un contenedor no es más que un ejecutable para la nube [2:38]: así como en Windows tienes un .exe que empaqueta todo lo necesario para instalar y correr una aplicación, un contenedor empaqueta tu código junto con las dependencias de sistema operativo para correr en cualquier entorno cloud. Kubernetes se encarga de orquestar múltiples contenedores dentro de un cluster, permitiendo escalar y administrar aplicaciones complejas.

¿Qué significa serverless y por qué importa para startups?

Al cruzar hacia el mundo serverless, aparecen tres opciones clave:

  • App Engine [3:42]: ideal para aplicaciones web construidas con frameworks como Flask, Django, Express o Sinatra. Crece de manera ilimitada y te libera de administrar infraestructura.
  • Cloud Run [4:38]: similar a App Engine pero enfocado en contenedores. Le indicas dónde está tu contenedor y Cloud Run lo ejecuta automáticamente, sin instalar Docker ni Kubernetes.
  • Cloud Functions [5:18]: el nivel más abstracto dentro de GCP. Solo envías la lógica de tu aplicación, puro código, y el servicio se encarga de todo lo demás.

El último componente es Firebase [5:47], que funciona como backend as a service. Automatiza completamente el backend para que puedas concentrarte exclusivamente en el frontend, ya sea una aplicación móvil, web o un desarrollo en Angular. Solo necesitas escribir código de backend cuando manejas algoritmos propietarios o información sensible.

¿Por qué serverless es el arma secreta de las startups?

La filosofía serverless entrega tres beneficios fundamentales [7:00]:

  • Autoescalado: tu sistema nunca se cae por su propio éxito. Si un evento de marketing genera miles de usuarios simultáneos, la plataforma crece automáticamente.
  • Administración cero: no configuras máquinas, no instalas parches, no compras switches ni cables Ethernet.
  • Velocidad al mercado (speed to market): enfocas todos tus recursos limitados, especialmente el tiempo de tus desarrolladores, en generar features que importen para tus clientes.

Cuando trabajas on-prem, debes pensar en conectividad industrial, servidores físicos, redes, seguridad física y mucho más [7:33]. Al moverte a la nube con VMs, eliminas esas preocupaciones pero sigues gestionando la elasticidad, el provisioning y las operaciones de seguridad. Con serverless, lo único que queda bajo tu responsabilidad es el desarrollo de la aplicación y el monitoreo de su rendimiento [8:24].

¿Cómo escala Kubernetes un contenedor a nivel global?

Usando el explorador de data centers de Google [9:15], se puede visualizar cómo un contenedor pasa de tu computadora local a correr en múltiples centros de datos alrededor del mundo: Brasil, Londres, Estados Unidos. El tráfico se rutea al data center más cercano [10:00] al usuario, lo que optimiza la latencia.

Conforme crece la demanda, Kubernetes prende nuevos contenedores. Cuando la demanda baja, los apaga. Esto es la elasticidad [10:28] en acción. Si un nodo falla, Kubernetes lo detecta y lo reinicia automáticamente [10:42]. Y cuando publicas actualizaciones, se despliegan en tiempo real con cero downtime [11:08], sin necesidad de detener el servicio.

Este modelo permite construir sistemas verdaderamente planetarios. La nube es una de las pocas infraestructuras completamente globales disponibles hoy, y saber aprovecharla correctamente te da una ventaja competitiva enorme. Si ya has trabajado con Kubernetes, serverless o máquinas virtuales, comparte tu experiencia en los comentarios.