Compute on Google Cloud Platform

1

Guía de Instalación de Google Cloud para Desarrolladores

2

Crear Cuentas en Google Cloud y Qwiklabs paso a paso

3

Uso de Quick Labs para Entrenamiento en Google Cloud

4

Google Cloud: Beneficios y Seguridad en la Nube Pública

5

Opciones de Cómputo en la Nube con Google Cloud

6

Máquinas Virtuales en Google Cloud: Uso, Optimización y Descuentos

7

Instalación de Qwiklabs paso a paso

8

Creación y Gestión de Máquinas Virtuales en Google Cloud

9

App Engine: Despliegue de Aplicaciones sin Infraestructura

10

Despliegue de Aplicaciones en App Engine con Java 11 y SpringBoot

11

Introducción a Docker y Contenerización de Aplicaciones

12

App Engine Estándar vs Flexible: Ventajas y Usos Prácticos

13

Implementación de Cloud Run: Serverless y Contenedores en Google Cloud

14

Cloud Functions: Creación y Conexión de Servicios Serverless

Continuous Integration, Continuous Delivery

15

Continuous Integration y Delivery en Google Cloud Platform

16

Estrategias de Despliegue de Aplicaciones en Producción

17

Repositorios en Google Cloud: Cloud Source y Container Registry

18

Construcción y Despliegue en Google Cloud Platform

19

Infraestructura como Código: Conceptos y Herramientas Clave

20

Despliegue de Aplicaciones Serverless en Google Cloud Platform

Google Kubernetes Engine

21

Fundamentos de Kubernetes y Google Kubernetes Engine

22

Creación y Despliegue de Clúster Kubernetes en Google Cloud

23

Planificación de Ambientes de Despliegue en Kubernetes

24

Implementación y Gestión de Anthos para Aplicaciones en la Nube

25

Cloud Run: Despliegue de Contenedores Serverless en Google Cloud

26

Despliegue de Servicios en Cloud Run con GKE

27

Anthos Service Mesh: Observabilidad y Seguridad en Kubernetes

28

Tour Completo de Anthos: Despliegue y Gestión en Google Cloud

Streaming Data Analytics

29

Integración de Datos en Tiempo Real con Google Cloud Data Fusion

30

Construcción de Flujos de Datos con Google Cloud Data Fusion

31

Ingesta de Datos Confiable en Google Cloud Platform

32

Ingesta de Eventos en Google Cloud con Apache Kafka y Dataflow

33

Configuración de Apache Kafka y Debezium en Linux para SQL Server y PubSub

34

Visualización de Mensajes en Google Cloud con Dataflow y BigQuery

35

Construcción de un Data Lakehouse con Google BigQuery

36

Ventajas de BigQuery como Data Lakehouse

37

Opciones de Almacenamiento en Google Cloud Platform

38

Gestión de Datos en Google Cloud: Portafolio y Migración

39

Gobierno de Datos en Google Cloud: Mejores Prácticas y Herramientas

40

Calidad y Monitoreo de Datos en Google Cloud

Machine Learning

41

Conceptos Básicos de Inteligencia Artificial y Aprendizaje Automático

42

Soluciones de IA y Machine Learning en Google Cloud para Desarrolladores

43

AutoML Tables: Modelado Predictivo con Datos Estructurados

44

Uso de AutoML Tables en Google Cloud para Modelos de Clasificación

45

Predicción de Tarifas con Jupyter Notebooks en Google Cloud

46

Análisis de Datos de Taxis en iNotebook con Google Cloud y BigQuery

47

Implementación de Pipelines con TensorFlow Extended

Sesiones en vivo

48

Mentoría en Google Cloud con Pablo Pérez Villanueva

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Anthos Service Mesh: Observabilidad y Seguridad en Kubernetes

27/48
Recursos

¿Qué es Anthos Service Mesh?

Anthos Service Mesh es una instalación de Istio sobre Kubernetes Engine, diseñada para mejorar la comunicación, observabilidad, agilidad y seguridad de microservicios en un entorno Kubernetes. Este servicio se vuelve crucial cuando la cantidad de servicios interconectados en una infraestructura se vuelve inmanejable, lo que lleva al conocido problema de la "estrella de la muerte". Con Anthos Service Mesh, se centraliza la comunicación de servicios, permitiendo un manejo más eficiente y seguro de estos.

¿Cuál es la estructura básica de Istio?

La arquitectura interna de Istio se basa en varios componentes clave:

  • Pilot: Este es el plano de configuración y decide qué servicios pueden comunicarse entre sí, usando un modelo de etiquetado dentro de Kubernetes. Se asemeja a la función de un profesor que organiza grupos de trabajo en un aula.

  • Mixer: Es el encargado de centralizar todas las comunicaciones para la correcta gestión de permisos y accesos.

  • Citadel: Proporciona las credenciales para los certificados de los proxies, asegurando la encriptación y seguridad de las comunicaciones internas.

  • Gallery: Facilita la comunicación con el Mixer, manteniendo la integridad del flujo de datos.

¿Cómo funciona un request en Istio?

Al enviar una solicitud de un servicio A a un servicio B en Istio, el proceso sigue ciertos pasos para asegurar la integridad y seguridad:

  1. Se genera un proxy tipo Envoy para cada servicio, asegurando que la comunicación pase a través de este intermediario.

  2. Pilot despliega este proxy Envoy al lado de cada servicio y Citadel entrega los certificados si es necesario encriptar la comunicación.

  3. El servicio no se comunica directamente con el otro; en su lugar, el proxy Envoy se encarga de hablar con el proxy del servicio B.

  4. Antes de permitir la comunicación, el proxy receptor verifica con Istio si tiene permiso para interactuar con el otro servicio.

  5. Una vez autorizado por el Mixer, el proxy inicia la comunicación, recoge la respuesta del servicio B y la devuelve al servicio A.

  6. Al completar el intercambio, el proxy reporta el tiempo y éxito de la solicitud, proporcionando métricas valiosas.

¿Qué ventajas ofrece el enfoque de proxy a proxy?

El enfoque de comunicación de proxy a proxy ofrece varias ventajas:

  • Desacoplamiento de la lógica de red: Los desarrolladores no tienen que preocuparse por el cableado de solicitudes o encriptación.

  • Evitar cuellos de botella: Al canalizar toda la comunicación a través de proxies, se minimizan los riesgos de que un servicio saturado afecte a otros.

  • Amplia observabilidad: Permite tener un monitoreo detallado de las interacciones y tiempos de respuesta a nivel de infraestructura.

Con estos componentes y flujos de trabajo, Anthos Service Mesh se convierte en una herramienta esencial para manejar de forma efectiva la complejidad de servicios en Kubernetes. Para aprender más sobre cómo aprovechar al máximo este poderoso concepto, es recomendable profundizar en estudios y tutoriales avanzados sobre Istio y Kubernetes proporcionados por Google Cloud.

Aportes 6

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Un servicio muy interesante

Los servicios son lo primero

Las arquitecturas de microservicios ofrecen numerosas ventajas, pero también plantean algunos retos, como el aumento de la complejidad y de la fragmentación de distintas cargas de trabajo. La plataforma Anthos simplifica la entrega de servicios de forma global, desde la gestión del tráfico y la telemetría en malla hasta la protección de la comunicación entre los servicios. De esta forma, facilita el trabajo a los equipos de operaciones y desarrollo. Anthos Service Mesh, la malla de servicios totalmente gestionada de Google, te permite gestionar estos entornos complejos de forma muy sencilla y disfrutar de las ventajas que ofrecen.

Muy interesante, muchas cosas mas por aprender.

Excelentes herramientas que nos ofrecen

genial en teoria, pero la implementación en un entorno productivo grande que tan complejo podría llegar a ser

Sí, puedes montar un taller en un ambiente local utilizando Docker para practicar conceptos de Anthos Service Mesh e Istio. Docker te permitirá crear contenedores para simular múltiples servicios y experimentar con su interconexión, observabilidad y seguridad, características clave de un service mesh. Además, puedes implementar proxies como Envoy y explorar las configuraciones de Pilot y Citadel para gestionar la comunicación y seguridad. Esto te ayudará a comprender mejor cómo funcionan los microservicios y el service mesh en un entorno controlado.
Para preparar tu ambiente local y probar el concepto de Anthos Service Mesh (ASM) y Istio, sigue estos pasos: 1. **Instalar Docker**: Asegúrate de tener Docker instalado, ya que se utiliza para crear contenedores en Kubernetes. 2. **Instalar Kubernetes**: Puedes usar Minikube o Kind para crear un clúster local de Kubernetes. 3. **Instalar Istio**: Descarga Istio desde su [sitio oficial](https://istio.io). Descomprime el archivo y agrega su binario a tu PATH. 4. **Configurar Istio**: - Ejecuta `istioctl install` para instalar Istio en tu clúster Kubernetes. - Habilita el injection de sidecar con `kubectl label namespace default istio-injection=enabled`. 5. **Implementar Servicios**: Despliega tus microservicios en el clúster utilizando YAML de Kubernetes. 6. **Probar la Comunicación**: Verifica la comunicación entre servicios a través de los proxies Envoy. 7. **Monitoreo**: Usa herramientas como Kiali y Grafana que vienen integradas en Istio para observar el tráfico de tus servicios. Este proceso te permitirá experimentar con el mesh de servicios localmente.