Arquitectura Híbrida y Multinube con Google Kubernetes Engine
Clase 10 de 20 • Curso de Contenedores y Aplicaciones en la Nube con Google Cloud Platform
Resumen
¿Qué es la arquitectura en Google Kubernetes Engine y cómo funciona?
Entender las arquitecturas detrás de Google Kubernetes Engine (GKE) es fundamental para orquestar estrategias de cómputo efectivas. Las arquitecturas de referencia proporcionan una guía sobre cómo desplegar Kubernetes en diferentes entornos, aprovechando servicios gestionados por Google, así como soluciones on premise. Un aspecto clave es el modelo de responsabilidad compartida que distingue entre operaciones on prem y en la nube. La administración y automatización varía, pero el objetivo final es un entorno de operación similar, independiente del lugar de despliegue.
¿Qué es GKE OnPrem?
GKE OnPrem es una variante de Google Kubernetes Engine diseñada para operaciones on premise. El nivel de operaciones es similar a su versión en la nube, pero con restricciones específicas debido a la falta de automatización completa. Estas operaciones requieren una planificación cuidadosa para maximizar el potencial de Kubernetes localmente.
¿Cómo se integra el Google Cloud Marketplace?
El Google Cloud Marketplace juega un papel crucial al permitir el acceso a aplicaciones pre-configuradas y especializadas listas para ejecutarse como contenedores. Esto facilita la implementación, brindando agilidad y eficiencia en el despliegue de soluciones tanto en entornos cloud como on premise.
¿Cómo funciona la conectividad híbrida?
Una conectividad híbrida eficiente es vital para mantener la comunicación segura entre despliegues on premise y en la nube sin depender de internet público. Las opciones típicas incluyen:
- VPN tradicionales: Recomendada con alta disponibilidad y varios túneles.
- Enlaces dedicados: Óptimos para necesidades significativas de ancho de banda, con posibilidad de escalar conforme se requiera.
El análisis y la elección de la conectividad correcta aseguran un flujo de datos eficiente y seguro entre los distintos entornos de despliegue.
¿Qué rol juega el Kubernetes Service Mesh y el repositorio de políticas?
¿Qué es un Kubernetes Service Mesh?
Aunque el Service Mesh se discutirá más adelante, es esencial comprender su rol en la administración del tráfico y las políticas de seguridad de los servicios dentro de Kubernetes, lo que implica una arquitectura más segura y controlada.
¿Por qué usar un repositorio de políticas?
La mayoría de los sistemas críticos suelen mantenerse on premise, asegurando que, incluso ante fallos de conectividad híbrida, los cambios y configuraciones puedan gestionarse localmente. Esta estrategia promueve la continuidad operativa y el control administrativo en situaciones de desconexión.
¿Cómo se utiliza el GKE Management Service en arquitecturas multinube?
Cuando una arquitectura se expande a un entorno multinube, el GKE Management Service es desplegado en la misma VPC que los clústeres que administra. Este servicio gestiona peticiones al API de otras nubes como AWS o Azure para provisionar los recursos necesarios, permitiendo una integración fluida y eficiente de aplicaciones y despliegues en estos entornos.
¿Cómo ejecutar un despliegue on premise?
¿Qué es un Cubeception en Kubernetes?
Cubeception es un término que describe la utilización de un clúster de Kubernetes dentro de otro. En el contexto on premise, esto implica tener un clúster administrativo (con su propio plano de control) que orquestra a los clústers de usuario, permitiendo una administración jerárquica y eficiente de recursos.
¿Qué herramientas son necesarias para el despliegue on premise?
- Workstation de trabajo: Desde donde se origina todo el despliegue. Viene empaquetada para lanzar instalaciones, actualizaciones, entre otros.
- Jumphost: Puede ser una laptop o desktop usada para administrar el ciclo de vida del Admin Workstation.
- Admin Cluster: Gestiona el ciclo de vida de los clústers de usuario, monitorea la salud del plano de control e implementa add-ons de sistema.
¿Qué es un Load Balancer?
Un Load Balancer distribuye el tráfico de red o de aplicación entre varios servidores, enviando a cada cliente a un servidor específico. En los despliegues on premise, es crucial para mantener la disponibilidad y eficiencia de las aplicaciones. Google utiliza un balanceador de carga open source llamado Zizo para sus operaciones internas a escala global.
¿Cómo afecta Anthos en la gestión de aplicaciones modernas?
Anthos ofrece una solución integral para la entrega de aplicaciones modernas. Este ecosistema abarca desde experiencia de desarrollador, migración y construcción CI/CD, hasta la exposición de APIs y operaciones. La adopción de estas soluciones permite mejorar la calidad de servicio, asegurando despliegues más rápidos y eficientes en cualquier entorno, algo que la industria requiere para mantener una ventaja competitiva.
Con estos elementos, los equipos de desarrollo pueden propulsar su capacidad para innovar y responder rápidamente a las necesidades del mercado.