- 1
Big Data en la Nube: Análisis, Transformación y Seguridad
00:40 - 2

Transformación de Datos en Cloud: Automatización y Seguridad
01:32 - 3

Big Data en la Nube: Escalabilidad, Automatización y Eficiencia
04:30 - 4

Almacenamiento y Procesamiento de Datos en la Nube
04:09 - 5
Comparativa de AWS y GCP para proyectos BigData
01:17
Creación de Kinesis Data Streams en AWS
Clase 15 de 52 • Curso de Big Data en AWS
Contenido del curso
- 9

Extracción de Datos a la Nube: Estrategias y Herramientas
02:21 - 10

Uso de Python y AWS Cloud9 para Proyectos de Big Data
10:16 - 11

Uso de Boto3 para Servicios AWS en Python
03:56 - 12

Integración de AWS API Gateway en Proyectos de Big Data
03:40 - 13

Uso de Storage Gateway para Integración de Datos en la Nube
03:13 - 14

Procesamiento de Datos en Tiempo Real con AWS Kinesis Data Stream
05:53 - 15

Creación de Kinesis Data Streams en AWS
06:50 - 16

Despliegue de Kinesis con AWS CloudFormation
10:42 - 17

Entrega y Transformación de Datos con Kinesis Firehose en AWS
03:27 - 18

Configuración de Kinesis Firehose en AWS paso a paso
05:45 - 19
Configuración Básica de Amazon Kinesis Firehose en AWS
02:53 - 20

AWS MSK: Implementación y Gestión de Apache Kafka en la Nube
03:42 - 21

Despliegue de Clúster MSK en AWS paso a paso
07:21
- 22

Transformación de Datos con AWS Glue: ETL y Catálogo de Metadatos
06:33 - 23

Instalación y Configuración de Apache Zeppelin para AWS Glue
04:49 - 24

Configuración de Developer Endpoint en AWS Glue para Apache Zeppelin
05:38 - 25

Conexión y configuración de Apache Zeppelin para ETL en AWS
08:29 - 26

Creación de un ETL con AWS Glue: Crawlers y Catalogación de Datos
08:15 - 27

Configuración y Ejecución de ETL en AWS Glue paso a paso
08:00 - 28

Creación y Ejecución de ETL con AWS Glue y S3
10:23 - 29

Procesamiento de Datos con EMR en AWS
05:30 - 30

Creación de un clúster EMR en AWS paso a paso
09:01 - 31

Conexión y Configuración de Zeppelin en Clúster EMR
03:18 - 32

Automatización de Clústeres EMR con Plantillas de CloudFormation
06:32 - 33

AWS Lambda en Proyectos de Big Data en Tiempo Real
07:02 - 34

Uso de Lambda en Arquitecturas de Big Data Real Time y Batch
04:54 - 35

Configuración de Funciones Lambda para Big Data en AWS
07:16
- 36

Consultas SQL en Big Data con AWS Athena y S3
04:50 - 37

Consultas SQL en S3 con AWS Athena y Glue Catalog
04:05 - 38

AWS Redshift: Almacenamiento y Análisis de Datos Masivos
06:37 - 39

Configuración de Amazon Redshift en AWS paso a paso
05:05 - 40

Lake Formation: Automatización y Seguridad en Gestión de Data Lakes
06:20
- 46

Seguridad en Big Data con AWS: Cifrado, Permisos y Monitoreo
03:51 - 47

Seguridad de Datos en AWS con Amazon Macie
07:32 - 48

Habilitación y Configuración de AWS Macie para Gestión de Datos Seguros
06:16 - 49

Orquestación de ETLs con Apache Airflow y Python en Big Data
04:27 - 50

Despliegue y Orquestación de Tareas con Google Cloud Composer
10:03 - 51

Arquitecturas de Big Data en Cloud: Batch y Tiempo Real
05:53
¿Cómo se crea un Kinesis Data Stream en AWS?
Para gestionar y procesar grandes cantidades de datos en tiempo real, AWS Kinesis es una de las soluciones más efectivas. Puedes crear y personalizar un Kinesis Data Stream a través de la consola de AWS siguiendo unos pasos clave. Aquí te llevamos por el proceso de creación y configuración inicial.
¿Cómo acceder a Kinesis en AWS?
- Inicia sesión en la consola de AWS.
- Busca Kinesis en el panel de servicios. Encontrarás dos opciones: Kinesis y Kinesis Video Stream. Selecciona Kinesis para continuar con los Data Streams.
- Ingresa al menú de Kinesis y haz clic en "Get Started" para comenzar con la creación de tu Data Stream.
¿Cuáles son las opciones disponibles para Kinesis?
Una vez dentro del entorno de Kinesis, verás cuatro opciones principales para crear:
- Data Stream: Ideal para procesos en tiempo real.
- Delivery Stream: Para la entrega de datos a servicios como Amazon S3.
- Analytics: Facilita el análisis en tiempo real de los datos transmitidos.
- Video Streams: Para streaming de video en tiempo real.
En nuestro caso práctico, seleccionaremos "Create Data Stream".
¿Cómo nombrar y configurar tu Data Stream?
-
Asigna un nombre a tu stream. Por ejemplo, "Platzi Kinesis".
-
Determina la cantidad de shards. Los shards definen la capacidad para manejar la cantidad de tráfico y registros que procesarás.
- Cada shard puede:
- Procesar 1 megabyte por segundo de datos de escritura.
- Soportar hasta 5 megabytes por segundo para lectura.
- Cada shard puede:
Evaluar correctamente tu carga de datos es fundamental para definir cuántos shards necesitarás.
¿Cómo enviar datos a Kinesis Data Stream?
Una vez que el Kinesis Data Stream esté configurado, hay varias opciones para enviar datos:
- API PUT Operation: Interfaz estándar para transmisión de datos.
- Kinesis Producer Library (KPL): Una librería que optimiza la producción de datos a través de un productor.
- Integración con Kinesis Firehose y Kinesis Analytics: Para un procesamiento y análisis más avanzado.
¿Qué es importante considerar sobre la seguridad y monitoreo?
- Cifrado de datos: Aunque inicialmente no está habilitado el cifrado del lado del servidor, puedes activar la encriptación con el Key Management System (KMS) de AWS para proteger tus datos.
- Periodos de retención de datos: Dentro de un rango de 24 a 168 horas, afectando el costo del servicio.
- Integración con CloudWatch: Permite tramitar métricas y logs esenciales para monitorear y depurar el flujo de datos.
¿Cómo personalizar los dashboards y etiquetas?
La sección de monitoreo te proporciona dashboards predefinidos para examinar diferentes métricas. Agrupa y filtra recursos por etiquetas (tags) como "Environment" para facilitar la gestión y reporte de recursos.
En resumen, al crear un Kinesis Data Stream, asegúrate de considerar la cantidad de shards, la retención de datos, la inscripción y el manejo de logs. Estos aspectos son esenciales para optimizar los costos y la eficiencia de tu streaming de datos en AWS. Si bien el proceso puede parecer complejo inicialmente, con la práctica y una adecuada planificación, dominarás la creación y administración de tus streams para maximizar el potencial de tus aplicaciones. ¡Sigue explorando y aprendiendo sobre Kinesis y otros servicios de AWS!