- 1
Big Data en la Nube: Análisis, Transformación y Seguridad
00:40 - 2

Transformación de Datos en Cloud: Automatización y Seguridad
01:32 - 3

Big Data en la Nube: Escalabilidad, Automatización y Eficiencia
04:30 - 4

Almacenamiento y Procesamiento de Datos en la Nube
04:09 - 5
Comparativa de AWS y GCP para proyectos BigData
01:17
Configuración de Kinesis Firehose en AWS paso a paso
Clase 18 de 52 • Curso de Big Data en AWS
Contenido del curso
- 9

Extracción de Datos a la Nube: Estrategias y Herramientas
02:21 - 10

Uso de Python y AWS Cloud9 para Proyectos de Big Data
10:16 - 11

Uso de Boto3 para Servicios AWS en Python
03:56 - 12

Integración de AWS API Gateway en Proyectos de Big Data
03:40 - 13

Uso de Storage Gateway para Integración de Datos en la Nube
03:13 - 14

Procesamiento de Datos en Tiempo Real con AWS Kinesis Data Stream
05:53 - 15

Creación de Kinesis Data Streams en AWS
06:50 - 16

Despliegue de Kinesis con AWS CloudFormation
10:42 - 17

Entrega y Transformación de Datos con Kinesis Firehose en AWS
03:27 - 18

Configuración de Kinesis Firehose en AWS paso a paso
05:45 - 19
Configuración Básica de Amazon Kinesis Firehose en AWS
02:53 - 20

AWS MSK: Implementación y Gestión de Apache Kafka en la Nube
03:42 - 21

Despliegue de Clúster MSK en AWS paso a paso
07:21
- 22

Transformación de Datos con AWS Glue: ETL y Catálogo de Metadatos
06:33 - 23

Instalación y Configuración de Apache Zeppelin para AWS Glue
04:49 - 24

Configuración de Developer Endpoint en AWS Glue para Apache Zeppelin
05:38 - 25

Conexión y configuración de Apache Zeppelin para ETL en AWS
08:29 - 26

Creación de un ETL con AWS Glue: Crawlers y Catalogación de Datos
08:15 - 27

Configuración y Ejecución de ETL en AWS Glue paso a paso
08:00 - 28

Creación y Ejecución de ETL con AWS Glue y S3
10:23 - 29

Procesamiento de Datos con EMR en AWS
05:30 - 30

Creación de un clúster EMR en AWS paso a paso
09:01 - 31

Conexión y Configuración de Zeppelin en Clúster EMR
03:18 - 32

Automatización de Clústeres EMR con Plantillas de CloudFormation
06:32 - 33

AWS Lambda en Proyectos de Big Data en Tiempo Real
07:02 - 34

Uso de Lambda en Arquitecturas de Big Data Real Time y Batch
04:54 - 35

Configuración de Funciones Lambda para Big Data en AWS
07:16
- 36

Consultas SQL en Big Data con AWS Athena y S3
04:50 - 37

Consultas SQL en S3 con AWS Athena y Glue Catalog
04:05 - 38

AWS Redshift: Almacenamiento y Análisis de Datos Masivos
06:37 - 39

Configuración de Amazon Redshift en AWS paso a paso
05:05 - 40

Lake Formation: Automatización y Seguridad en Gestión de Data Lakes
06:20
- 46

Seguridad en Big Data con AWS: Cifrado, Permisos y Monitoreo
03:51 - 47

Seguridad de Datos en AWS con Amazon Macie
07:32 - 48

Habilitación y Configuración de AWS Macie para Gestión de Datos Seguros
06:16 - 49

Orquestación de ETLs con Apache Airflow y Python en Big Data
04:27 - 50

Despliegue y Orquestación de Tareas con Google Cloud Composer
10:03 - 51

Arquitecturas de Big Data en Cloud: Batch y Tiempo Real
05:53
¿Cómo configuramos Kinesis Firehose en AWS?
Configurar Kinesis Firehose dentro de AWS puede parecer un desafío al principio, pero con los pasos adecuados, este proceso puede ser altamente eficiente. AWS Kinesis es una herramienta poderosa que permite la ingestión y el procesamiento de grandes volúmenes de datos en tiempo real, crucial para empresas que buscan tomar decisiones basadas en datos rápidamente. Vamos a explorar cómo configurar un delivery stream utilizando Kinesis Firehose.
¿Cómo creamos un Delivery Stream en Kinesis?
Para comenzar la configuración, nos dirigimos a la consola de AWS y buscamos el servicio Kinesis. Una vez allí, seleccionamos la opción para crear un nuevo delivery stream. Aquí es donde entra en juego Kinesis Firehose. Sigamos estos pasos:
-
Crear el Firehose: Hacemos clic en "Create Delivery Stream" y damos un nombre a nuestro Firehose, por ejemplo, "Firehose Platzi".
-
Formas de Alimentar Kinesis Firehose: Existen varias formas de alimentar el servicio:
- API Directa: Puedes alimentar directamente utilizando otras APIs de recursos.
- Kinesis Stream: Seleccionas que tus registros provengan de un Kinesis Stream existente.
-
Opciones de Servicio: Al seleccionar cómo alimentar Firehose, considera:
- Agentes de Kinesis.
- Servicios de IoT (Internet de las Cosas) como colas MQTT.
- Integración con logs y eventos de CloudWatch.
¿Debemos transformar la data?
Un aspecto crucial de Kinesis Firehose es la transformación de datos. Puedes optar por transformar los datos antes de enviarlos a su destino final. Este proceso incluye:
-
Transformación de Datos: Decide si habilitarás transformación. Al hacerlo, puedes utilizar funciones Lambda para aplicar transformaciones personalizadas.
-
Conversión de Formatos: A menudo es más eficiente convertir los datos a formatos comprimidos como Apache Parquet o ORC en lugar de JSON. Esto requiere configuraciones adicionales en AWS Glue.
¿Cuál es el destino de la data transformada?
Define a dónde se enviarán los datos después de ser transformados. AWS ofrece varias opciones de destino, cada una adecuada para diferentes casos de uso:
-
Amazon S3:
- Debes especificar un bucket y prefijos si es necesario.
- Configuraciones de buffer y compresión.
-
Amazon Redshift:
- Selecciona el clúster, base de datos, y tabla.
- Utiliza un bucket intermedio para la transferencia de datos.
-
Elasticsearch:
- Define el índice y configura las opciones de rotación.
- Configura un bucket de S3 como respaldo en caso de que el clúster de Elasticsearch esté fallando.
-
Splunk:
- Conecta Firehose al servicio Splunk para enviar datos procesados.
¿Qué configuraciones adicionales debemos considerar?
Al configurar Kinesis Firehose, hay ajustes adicionales que pueden mejorar su eficiencia y seguridad:
-
Condiciones de Buffer y Compresión: Cambia el tamaño del buffer y selecciona el intervalo y método de compresión.
-
Encriptación y Seguridad: Considera usar Key Management System (KMS) para encriptar la información.
-
Logs y Monitoring: Decide si habilitarás registros (logs) del flujo de datos y asigna roles que proporcionen los permisos necesarios para que Kinesis interactúe con otros servicios.
Con estas pautas, configurar Kinesis Firehose en AWS se convierte en un proceso claro y dirigido, permitiéndote manejar grandes volúmenes de datos con eficacia. La clave está en comprender tus necesidades y seleccionar opciones que mejor se alineen con tus objetivos empresariales y técnicos. ¡Atrévete a explorar y usar AWS para gestionar tus datos con soltura!