- 1

Guía de Instalación de Google Cloud para Desarrolladores
01:27 - 2
Crear Cuentas en Google Cloud y Qwiklabs paso a paso
01:30 - 3

Uso de Quick Labs para Entrenamiento en Google Cloud
07:50 - 4

Google Cloud: Beneficios y Seguridad en la Nube Pública
13:30 - 5

Opciones de Cómputo en la Nube con Google Cloud
05:50 - 6

Máquinas Virtuales en Google Cloud: Uso, Optimización y Descuentos
07:32 - 7
Instalación de Qwiklabs paso a paso
00:18 - 8

Creación y Gestión de Máquinas Virtuales en Google Cloud
17:34 - 9

App Engine: Despliegue de Aplicaciones sin Infraestructura
07:30 - 10

Despliegue de Aplicaciones en App Engine con Java 11 y SpringBoot
12:50 - 11
Introducción a Docker y Contenerización de Aplicaciones
02:48 - 12

App Engine Estándar vs Flexible: Ventajas y Usos Prácticos
11:23 - 13

Implementación de Cloud Run: Serverless y Contenedores en Google Cloud
08:10 - 14

Cloud Functions: Creación y Conexión de Servicios Serverless
12:56
Ingesta de Datos Confiable en Google Cloud Platform
Clase 31 de 48 • Entrenamiento de Google Cloud Platform
Contenido del curso
- 15

Continuous Integration y Delivery en Google Cloud Platform
10:13 - 16

Estrategias de Despliegue de Aplicaciones en Producción
10:02 - 17

Repositorios en Google Cloud: Cloud Source y Container Registry
07:33 - 18

Construcción y Despliegue en Google Cloud Platform
09:32 - 19

Infraestructura como Código: Conceptos y Herramientas Clave
09:28 - 20

Despliegue de Aplicaciones Serverless en Google Cloud Platform
08:38
- 21

Fundamentos de Kubernetes y Google Kubernetes Engine
10:10 - 22

Creación y Despliegue de Clúster Kubernetes en Google Cloud
09:25 - 23

Planificación de Ambientes de Despliegue en Kubernetes
12:37 - 24

Implementación y Gestión de Anthos para Aplicaciones en la Nube
09:07 - 25

Cloud Run: Despliegue de Contenedores Serverless en Google Cloud
09:51 - 26

Despliegue de Servicios en Cloud Run con GKE
08:49 - 27

Anthos Service Mesh: Observabilidad y Seguridad en Kubernetes
06:22 - 28

Tour Completo de Anthos: Despliegue y Gestión en Google Cloud
06:52
- 29

Integración de Datos en Tiempo Real con Google Cloud Data Fusion
15:27 - 30

Construcción de Flujos de Datos con Google Cloud Data Fusion
15:51 - 31

Ingesta de Datos Confiable en Google Cloud Platform
11:07 - 32

Ingesta de Eventos en Google Cloud con Apache Kafka y Dataflow
06:30 - 33

Configuración de Apache Kafka y Debezium en Linux para SQL Server y PubSub
12:39 - 34

Visualización de Mensajes en Google Cloud con Dataflow y BigQuery
04:58 - 35

Construcción de un Data Lakehouse con Google BigQuery
09:11 - 36

Ventajas de BigQuery como Data Lakehouse
11:48 - 37

Opciones de Almacenamiento en Google Cloud Platform
06:18 - 38

Gestión de Datos en Google Cloud: Portafolio y Migración
10:59 - 39

Gobierno de Datos en Google Cloud: Mejores Prácticas y Herramientas
09:54 - 40

Calidad y Monitoreo de Datos en Google Cloud
07:53
- 41

Conceptos Básicos de Inteligencia Artificial y Aprendizaje Automático
13:00 - 42

Soluciones de IA y Machine Learning en Google Cloud para Desarrolladores
12:40 - 43

AutoML Tables: Modelado Predictivo con Datos Estructurados
11:50 - 44

Uso de AutoML Tables en Google Cloud para Modelos de Clasificación
05:17 - 45

Predicción de Tarifas con Jupyter Notebooks en Google Cloud
07:33 - 46

Análisis de Datos de Taxis en iNotebook con Google Cloud y BigQuery
13:34 - 47

Implementación de Pipelines con TensorFlow Extended
13:48
¿Cómo Google Cloud Platform gestiona la ingesta de datos confiable?
Google Cloud Platform (GCP) nos ofrece una potente infraestructura para administrar la ingesta de datos de manera confiable a través de servicios gestionados. Comprender cómo se generan estos datos es crucial. Generamos eventos de manera masiva, desde navegar en eCommerce hasta compartir en redes sociales. Dentro de una organización, estas prácticas se traducen en tres principales casos de uso:
- Ingesta de eventos de usuarios: Al utilizar plataformas como Mercado Libre, cada acción genera eventos en tiempo real.
- Ingesta de datos a través de bases de datos con CDC (Change Data Capture): Esta técnica permite capturar y accionar sobre los cambios en una base de datos.
- Enriquecimiento de eventos con inteligencia artificial: Usar APIs de Google para analizar y enriquecer datos no estructurados, como fotos y vídeos.
¿Qué diferencia a una organización data driven de una event driven?
Una organización data driven se centra en un enfoque estratégico. Antes de realizar acciones, planifica en base a estrategias e hipótesis, lo cual implica un desarrollo a largo plazo. Por el contrario, una organización event driven responde en tiempo real a los datos. Deja que los eventos dicten las acciones, permitiendo una reacción más rápida y adaptativa a las necesidades del negocio.
¿Cuáles son las características de cada enfoque?
-
Data driven:
- Estrategia a largo plazo e hipótesis.
- Baja sensibilidad temporal.
- Planificación previa antes de la implementación de estrategias.
-
Event driven:
- Respuesta rápida y adaptativa.
- Acciones definidas por los eventos en tiempo real.
- Los datos determinan las decisiones, permitiendo una ejecución ágil.
¿Cómo facilita Google Cloud estos enfoques de ingesta de datos?
Google proporciona una plataforma que abarca cinco puntos clave para la ingesta de datos confiable:
- Servicios de ingesta robustos: Capturan eventos sin importar su tamaño o velocidad.
- Ingesta de datos unificada: Permite procesar datos en batch o streaming sin recodificar.
- Arquitectura serverless: Maximiza la eficiencia al eliminar la necesidad de gestionar servidores.
- Herramientas de sentido de datos: Ofrecen la capacidad de extraer información significativa en tiempo real.
- Flexibilidad para usuarios: No se requiere experiencia en programación para aprovechar la plataforma.
¿Qué productos soportan esta arquitectura?
PubSub
- Producto global que capta datos en el punto más cercano de producción.
- Escalable, procesando hasta 100 GB por segundo.
- Spotify como caso de uso, gestionando 8.5 millones de eventos por segundo.
import pubsub_v1
client = pubsub_v1.PublisherClient()
topic_path = client.topic_path('your-project', 'your-topic')
data = 'your-message'.encode('utf-8')
client.publish(topic_path, data)
Dataflow
- Basado en Apache Beam, permite reutilización en batch o real time.
- Integrado con varios motores de procesamiento como Apache Flink y Spark.
- Garantiza la entrega del mensaje exactly once juntamente con PubSub.
import apache_beam as beam
with beam.Pipeline() as p:
(p
| 'Input' >> beam.Create([1, 2, 3, 4, 5])
| 'Multiply' >> beam.Map(lambda x: x * 10)
| 'Output' >> beam.io.WriteToText('output.txt'))
Otros componentes
- BigQuery: Almacena datos de eventos de manera serverless y escalable.
- AI Platform y TensorFlow: Operacionaliza modelos de inteligencia artificial, permitiendo análisis complejos y predicciones.
¿Por qué elegir Google para la ingesta de datos?
- Proceso unificado para ingesta y análisis de datos en batch y real time.
- Soluciones integradas que permiten democratizar los análisis.
- Casos de éxito como eMARSIS, que procesa 250.000 eventos por segundo y redujo costos en un 70%.
Google Cloud es un aliado robusto y flexible para cualquier organización que desee implementar una ingesta de datos confiable, adaptándose a demandas cambiantes y escalando con el crecimiento del negocio.