Las cinco B de big data explicadas
Clase 52 de 52 • Curso de Big Data en AWS
Contenido del curso
Arquitecturas
Extracción de información
- 9

Cómo mover datos a cloud con SDK y CLI
02:21 min - 10

Python y boto3 para listar buckets S3
10:16 min - 11

Boto3: inicializar clients de AWS en Python
03:56 min - 12

API Gateway como puerta de big data
03:40 min - 13

Storage Gateway: puerta entre on-premise y S3
03:13 min - 14

AWS Kinesis: streaming masivo de datos
05:53 min - 15

Cómo crear Kinesis Data Stream en AWS
06:50 min - 16

Despliegue automatizado de Kinesis con CloudFormation
10:42 min - 17

Cómo Kinesis Firehose entrega datos en tiempo real
03:27 min - 18

Configuración de Kinesis Firehose en AWS
05:45 min - 19
Configuración Básica de Amazon Kinesis Firehose en AWS
02:53 min - 20

MSK vs Kinesis: cuál elegir en AWS
03:42 min - 21

Creación de clúster AWS MSK desde la consola
07:21 min
Transformación de Información
- 22

Cómo AWS Glue transforma datos en la nube
06:33 min - 23

Instalación de Apache Zeppelin paso a paso
04:49 min - 24

Configurar developer endpoint de AWS Glue con Zeppelin
05:38 min - 25

Conexión de Apache Zeppelin con AWS
08:29 min - 26

Configurar AWS Glue Crawler para poblar catálogo
08:15 min - 27

Configuración de Developer Endpoint en AWS Glue
08:00 min - 28

Cómo configurar AWS Glue ETL desde S3 a Parquet
10:23 min - 29

Qué es EMR y cuándo usarlo
05:30 min - 30

Crear tu primer cluster de AWS EMR
09:01 min - 31

Conectar Apache Zeppelin a EMR
03:18 min - 32

EMR automatizado con CloudFormation
06:32 min - 33

AWS Lambda para proyectos de big data
07:02 min - 34

Lambdas en big data: real time y batch
04:54 min - 35

Configuración de AWS Lambda para Big Data
07:16 min
Carga de Información
Consumo de información
Seguridad, Orquestación y Automatización
Clase pública
Con experiencia en proyectos de big data en Latinoamérica, Carlos Zambrano explica con claridad cómo convertir datos en valor. Aquí encontrarás qué es big data, las cinco B que lo guían y las habilidades clave para procesar, transformar y visualizar información en servicios de cloud providers como Amazon Web Service y Google Cloud Platform.
¿Qué es big data y cuál es su objetivo?
Big data es un campo orientado al análisis, procesamiento y almacenamiento de grandes cantidades de información. Estos datos provienen de múltiples fuentes y suelen presentar incompatibilidades, por lo que el reto está en integrarlos y explotarlos para generar valor de negocio.
- Integrar datos de diversas fuentes y formatos para analizarlos con consistencia.
- Procesar información de alto volumen con enfoque en velocidad y oportunidad.
- Asegurar que los datos sean confiables para extraer valor real.
¿Cuáles son las cinco B de big data y cómo aplicarlas?
Las cinco B orientan el trabajo diario con datos: volumen, velocidad, variedad, veracidad y valor. Entenderlas permite decidir cómo y cuándo procesar la información para obtener resultados útiles.
¿Cómo gestionar volumen y velocidad?
- Volumen: se refiere a la gran cantidad de datos que se deben procesar para extraer conocimiento útil.
- Velocidad: responde a la pregunta clave: ¿en cuánto tiempo se necesita la información para obtener el mayor valor posible?.
Puntos clave: - Ajustar el procesamiento al tamaño de los datos para mantener eficiencia. - Priorizar la entrega de información oportuna según la necesidad del negocio.
¿Cómo asegurar variedad, veracidad y valor?
- Variedad: integrar datos de diversas fuentes y diversos formatos para un análisis completo.
- Veracidad: garantizar la consistencia de los datos que se van a procesar.
- Valor: definir cómo y en qué momento convertir los datos en decisiones y resultados tangibles.
Puntos clave: - Normalizar y transformar para resolver incompatibilidades. - Verificar calidad antes de analizar para evitar sesgos. - Enfocar el trabajo en preguntas que produzcan resultados medibles.
¿Qué aprenderás a hacer con datos en la nube?
El enfoque práctico se centra en obtener el mayor valor posible de los datos desde su origen hasta su visualización, utilizando servicios de cloud providers como Amazon Web Service y Google Cloud Platform.
Habilidades que desarrollarás: - Obtener y preparar datos desde los orígenes de información. - Generar, transformar y procesar datos con criterios de volumen y velocidad. - Visualizar resultados para comunicar hallazgos con claridad. - Mantener veracidad y consistencia durante todo el proceso. - Diseñar flujos orientados a valor, alineados a necesidades reales.
¿Tienes un reto con volumen, velocidad o variedad de datos? Cuéntalo en los comentarios y comparte cómo lo estás abordando.