- 1

Guía de Instalación de Google Cloud para Desarrolladores
01:27 - 2
Crear Cuentas en Google Cloud y Qwiklabs paso a paso
01:30 - 3

Uso de Quick Labs para Entrenamiento en Google Cloud
07:50 - 4

Google Cloud: Beneficios y Seguridad en la Nube Pública
13:30 - 5

Opciones de Cómputo en la Nube con Google Cloud
05:50 - 6

Máquinas Virtuales en Google Cloud: Uso, Optimización y Descuentos
07:32 - 7
Instalación de Qwiklabs paso a paso
00:18 - 8

Creación y Gestión de Máquinas Virtuales en Google Cloud
17:34 - 9

App Engine: Despliegue de Aplicaciones sin Infraestructura
07:30 - 10

Despliegue de Aplicaciones en App Engine con Java 11 y SpringBoot
12:50 - 11
Introducción a Docker y Contenerización de Aplicaciones
02:48 - 12

App Engine Estándar vs Flexible: Ventajas y Usos Prácticos
11:23 - 13

Implementación de Cloud Run: Serverless y Contenedores en Google Cloud
08:10 - 14

Cloud Functions: Creación y Conexión de Servicios Serverless
12:56
Ingesta de Eventos en Google Cloud con Apache Kafka y Dataflow
Clase 32 de 48 • Entrenamiento de Google Cloud Platform
Contenido del curso
- 15

Continuous Integration y Delivery en Google Cloud Platform
10:13 - 16

Estrategias de Despliegue de Aplicaciones en Producción
10:02 - 17

Repositorios en Google Cloud: Cloud Source y Container Registry
07:33 - 18

Construcción y Despliegue en Google Cloud Platform
09:32 - 19

Infraestructura como Código: Conceptos y Herramientas Clave
09:28 - 20

Despliegue de Aplicaciones Serverless en Google Cloud Platform
08:38
- 21

Fundamentos de Kubernetes y Google Kubernetes Engine
10:10 - 22

Creación y Despliegue de Clúster Kubernetes en Google Cloud
09:25 - 23

Planificación de Ambientes de Despliegue en Kubernetes
12:37 - 24

Implementación y Gestión de Anthos para Aplicaciones en la Nube
09:07 - 25

Cloud Run: Despliegue de Contenedores Serverless en Google Cloud
09:51 - 26

Despliegue de Servicios en Cloud Run con GKE
08:49 - 27

Anthos Service Mesh: Observabilidad y Seguridad en Kubernetes
06:22 - 28

Tour Completo de Anthos: Despliegue y Gestión en Google Cloud
06:52
- 29

Integración de Datos en Tiempo Real con Google Cloud Data Fusion
15:27 - 30

Construcción de Flujos de Datos con Google Cloud Data Fusion
15:51 - 31

Ingesta de Datos Confiable en Google Cloud Platform
11:07 - 32

Ingesta de Eventos en Google Cloud con Apache Kafka y Dataflow
06:30 - 33

Configuración de Apache Kafka y Debezium en Linux para SQL Server y PubSub
12:39 - 34

Visualización de Mensajes en Google Cloud con Dataflow y BigQuery
04:58 - 35

Construcción de un Data Lakehouse con Google BigQuery
09:11 - 36

Ventajas de BigQuery como Data Lakehouse
11:48 - 37

Opciones de Almacenamiento en Google Cloud Platform
06:18 - 38

Gestión de Datos en Google Cloud: Portafolio y Migración
10:59 - 39

Gobierno de Datos en Google Cloud: Mejores Prácticas y Herramientas
09:54 - 40

Calidad y Monitoreo de Datos en Google Cloud
07:53
- 41

Conceptos Básicos de Inteligencia Artificial y Aprendizaje Automático
13:00 - 42

Soluciones de IA y Machine Learning en Google Cloud para Desarrolladores
12:40 - 43

AutoML Tables: Modelado Predictivo con Datos Estructurados
11:50 - 44

Uso de AutoML Tables en Google Cloud para Modelos de Clasificación
05:17 - 45

Predicción de Tarifas con Jupyter Notebooks en Google Cloud
07:33 - 46

Análisis de Datos de Taxis en iNotebook con Google Cloud y BigQuery
13:34 - 47

Implementación de Pipelines con TensorFlow Extended
13:48
¿Cómo realizar una ingesta confiable en Google Cloud?
Realizar una ingesta confiable de datos en Google Cloud es una habilidad crucial en el mundo actual, donde la rapidez y precisión en el desplazamiento de información son vitales. En esta guía, te llevaré paso a paso a través de un proceso para replicar en tiempo casi real los eventos de una base de datos SQL Server hacia Google Cloud. Utilizando herramientas como Apache Devezium y Apache Kafka para la captura de eventos, vamos a aprovechar un enfoque serverless para integrar y procesar datos. La promesa aquí es mejorar significativamente la eficiencia y seguridad de tus flujos de datos.
¿Qué herramientas clave forman parte de este proceso?
- SQL Server con CDC (Change Data Capture): Esta es tu fuente de datos inicial, de la cual se capturarán los eventos.
- Apache Devezium: Un framework open-source que detecta cambios en la base de datos y genera eventos.
- Apache Kafka: Un intermediario que transporta los eventos generados por Devezium hacia la nube.
- Google Cloud Pub/Sub: Servicio de mensajería que facilita la comunicación entre sistemas.
- Dataflow: Procesa y transforma los datos antes de almacenarlos.
- BigQuery: Almacena los datos procesados para análisis y visualización.
¿Cómo configurar Google Pub/Sub?
-
Crear un tópico en Pub/Sub:
- Accede a la consola de Google Cloud y selecciona Pub/Sub.
- Crea un nuevo tópico, por ejemplo, "from Kafka".
- Configura las opciones de inscripción, puedes usar claves de Google o personalizadas.
-
Cargar el tópico en Dataflow:
- Dirígete a Dataflow desde la consola principal de Google Cloud.
- Crea un nuevo trabajo desde una plantilla predefinida para simplificar el proceso.
- Elige la plantilla "Cloud Pub/Sub to BigQuery" y proporciona:
- Nombre del tópico.
- Tabla de destino en BigQuery.
- Ubicación temporal en Google Cloud Storage.
¿Cómo configurar Dataflow para procesar mensajes?
Dataflow permite la creación de pipelines que procesan datos en streaming o en batch. La plantilla "Cloud Pub/Sub to BigQuery" tiene parámetros específicos que debes completar:
# Ejemplo de configuración en Dataflow
job_name = "from Kafka"
region = "US Central 1"
template = "CloudPubSubToBigQuery"
topic_name = "projects/your-project-id/topics/from-Kafka"
bq_table = "project-id:dataset_id.table_id"
temp_location = "gs://your-bucket/temp-location/"
-
Proveer datos necesarios:
- Tópico: Enlace al tópico de Pub/Sub.
- Tabla de BigQuery: Usa el formato
proyecto:data_set.tabla. - Ubicación temporal: Directorio en Google Cloud Storage para almacenamiento provisional.
-
Ejecutar el trabajo:
- Al ejecutar, Dataflow crea un grafo acíclico dirigido (DAG), que representa visualmente las operaciones del pipeline.
¿Qué sigue después de configurar los servicios de Google Cloud?
Para completar el proceso, necesitamos conectar todos estos elementos con Apache Devezium, que capturará y enviará eventos en formato JSON desde SQL Server hacia nuestra infraestructura en Google Cloud. Esta última fase crucial asegura que los eventos se transmitan de manera fiable y eficiente desde la base de datos hasta BigQuery, listos para ser analizados.
Invitamos a los estudiantes y profesionales interesados en mejorar sus habilidades en procesamiento de datos a profundizar en cada herramienta y seguir aprendiendo sobre su integración en infraestructuras Cloud. Con estas habilidades, estarán equipados para liderar en un mundo cada vez más impulsado por datos.