Big Data en Cloud desde origen a visualización
Clase 2 de 52 • Curso de Big Data en AWS
Contenido del curso
Arquitecturas
Extracción de información
- 9

Cómo mover datos a cloud con SDK y CLI
02:21 min - 10

Python y boto3 para listar buckets S3
10:16 min - 11

Boto3: inicializar clients de AWS en Python
03:56 min - 12

API Gateway como puerta de big data
03:40 min - 13

Storage Gateway: puerta entre on-premise y S3
03:13 min - 14

AWS Kinesis: streaming masivo de datos
05:53 min - 15

Cómo crear Kinesis Data Stream en AWS
06:50 min - 16

Despliegue automatizado de Kinesis con CloudFormation
10:42 min - 17

Cómo Kinesis Firehose entrega datos en tiempo real
03:27 min - 18

Configuración de Kinesis Firehose en AWS
05:45 min - 19
Configuración Básica de Amazon Kinesis Firehose en AWS
02:53 min - 20

MSK vs Kinesis: cuál elegir en AWS
03:42 min - 21

Creación de clúster AWS MSK desde la consola
07:21 min
Transformación de Información
- 22

Cómo AWS Glue transforma datos en la nube
06:33 min - 23

Instalación de Apache Zeppelin paso a paso
04:49 min - 24

Configurar developer endpoint de AWS Glue con Zeppelin
05:38 min - 25

Conexión de Apache Zeppelin con AWS
08:29 min - 26

Configurar AWS Glue Crawler para poblar catálogo
08:15 min - 27

Configuración de Developer Endpoint en AWS Glue
08:00 min - 28

Cómo configurar AWS Glue ETL desde S3 a Parquet
10:23 min - 29

Qué es EMR y cuándo usarlo
05:30 min - 30

Crear tu primer cluster de AWS EMR
09:01 min - 31

Conectar Apache Zeppelin a EMR
03:18 min - 32

EMR automatizado con CloudFormation
06:32 min - 33

AWS Lambda para proyectos de big data
07:02 min - 34

Lambdas en big data: real time y batch
04:54 min - 35

Configuración de AWS Lambda para Big Data
07:16 min
Carga de Información
Consumo de información
Seguridad, Orquestación y Automatización
Clase pública
Con enfoque práctico y validado en el sector financiero y de medios en Latinoamérica, Carlos Zambrano presenta cómo convertir millones y billones de datos en valor de negocio con cloud. Aprenderás un flujo completo orientado a resultados que prioriza automatización, orquestación y seguridad para llevar la data desde el origen hasta su visualización.
¿Cómo se transforma la data en cloud desde el origen hasta la visualización?
La propuesta cubre el ciclo completo de la transformación de data en cloud. Desde capturar datos en N fuentes, moverlos a cloud, transformarlos y visualizarlos con un propósito claro: cumplir objetivos de la organización.
- Tomar datos desde el origen con enfoque en escalabilidad.
- Llevarlos a cloud sin perder trazabilidad.
- Transformar con intención para sumar valor.
- Visualizar para decisiones oportunas.
En conjunto, se trata de un flujo end to end donde cada etapa está pensada para aportar a un objetivo concreto.
¿Qué pilares garantizan valor en el flujo de datos: automatización, orquestación y seguridad?
Carlos destaca tres aspectos críticos que sostienen el proceso de datos en cloud. Estos pilares ayudan a que el flujo sea confiable, repetible y alineado al resultado esperado.
¿Cómo automatizar el proceso para escalar en cloud?
- Estandarizar pasos para reducir fricción.
- Disminuir tareas manuales y errores.
- Asegurar repetibilidad del flujo.
¿Cómo orquestar tareas para cumplir el objetivo?
- Coordinar tareas y dependencias.
- Alinear ejecuciones con el objetivo final.
- Mantener orden y visibilidad del proceso.
¿Cómo mantener la seguridad a lo largo del flujo de información?
- Proteger datos en cada etapa.
- Preservar confidencialidad e integridad.
- Aplicar seguridad de extremo a extremo.
Además, desarrollarás habilidades clave para trabajar con cloud y datos a escala.
- Comprender un flujo completo desde origen a visualización.
- Manejar múltiples fuentes con un enfoque unificado.
- Priorizar valor de negocio en cada transformación.
- Diseñar procesos con automatización, orquestación y seguridad como base.
¿Quién guía y qué experiencia respalda este enfoque?
El contenido es guiado por Carlos Zambrano, con experiencia en proyectos de transformación de data en el sector financiero y de medios en Latinoamérica. Su trayectoria incluye el manejo de millones y billones de datos desde el origen hasta la visualización para ayudar a empresas a cumplir sus objetivos.
- Enfoque práctico con resultados medibles.
- Transferencia de conocimiento aplicable a cloud.
- Objetivo claro: extraer el mayor valor de la data.
¿Te gustaría profundizar en alguna parte del flujo o compartir tus retos con cloud y datos a escala? Deja tu comentario y cuéntanos qué quisieras priorizar.