Cómo Kinesis Firehose entrega datos en tiempo real
Clase 17 de 52 • Curso de Big Data en AWS
Contenido del curso
Arquitecturas
Extracción de información
- 9

Cómo mover datos a cloud con SDK y CLI
02:21 min - 10

Python y boto3 para listar buckets S3
10:16 min - 11

Boto3: inicializar clients de AWS en Python
03:56 min - 12

API Gateway como puerta de big data
03:40 min - 13

Storage Gateway: puerta entre on-premise y S3
03:13 min - 14

AWS Kinesis: streaming masivo de datos
05:53 min - 15

Cómo crear Kinesis Data Stream en AWS
06:50 min - 16

Despliegue automatizado de Kinesis con CloudFormation
10:42 min - 17

Cómo Kinesis Firehose entrega datos en tiempo real
Viendo ahora - 18

Configuración de Kinesis Firehose en AWS
05:45 min - 19
Configuración Básica de Amazon Kinesis Firehose en AWS
02:53 min - 20

MSK vs Kinesis: cuál elegir en AWS
03:42 min - 21

Creación de clúster AWS MSK desde la consola
07:21 min
Transformación de Información
- 22

Cómo AWS Glue transforma datos en la nube
06:33 min - 23

Instalación de Apache Zeppelin paso a paso
04:49 min - 24

Configurar developer endpoint de AWS Glue con Zeppelin
05:38 min - 25

Conexión de Apache Zeppelin con AWS
08:29 min - 26

Configurar AWS Glue Crawler para poblar catálogo
08:15 min - 27

Configuración de Developer Endpoint en AWS Glue
08:00 min - 28

Cómo configurar AWS Glue ETL desde S3 a Parquet
10:23 min - 29

Qué es EMR y cuándo usarlo
05:30 min - 30

Crear tu primer cluster de AWS EMR
09:01 min - 31

Conectar Apache Zeppelin a EMR
03:18 min - 32

EMR automatizado con CloudFormation
06:32 min - 33

AWS Lambda para proyectos de big data
07:02 min - 34

Lambdas en big data: real time y batch
04:54 min - 35

Configuración de AWS Lambda para Big Data
07:16 min
Carga de Información
Consumo de información
Seguridad, Orquestación y Automatización
Clase pública
Kinesis Firehose en AWS permite mover y transformar datos en tiempo real con una operación simple y confiable. Aquí verás cómo encaja con Kinesis Data Streams, cómo integra Lambda para transformaciones y qué destinos habilita para análisis, almacenamiento y visualización.
¿Qué es Kinesis Firehose y cómo se integra en AWS?
Kinesis Firehose es un servicio completamente administrado para la entrega de datos de streaming en tiempo real. Puede recibir datos desde un data source o desde Kinesis Data Streams, aplicar transformaciones y entregarlos a servicios de almacenamiento, análisis o visualización.
- Encadena después de Kinesis Data Streams para simplificar la entrega.
- Integra Lambda para transformar la data según la necesidad.
- Entrega a S3, Redshift, Amazon Elasticsearch Service (para visualizar en Kibana) y Splunk, entre otros.
- Puede enviar source records y transformaciones fallidas automáticamente a S3.
- En escenarios prácticos, va un paso por delante de Data Streams para la entrega gestionada.
¿Cómo fluye la data: de la fuente a la visualización?
El flujo típico parte de un productor de datos o un Kinesis Data Stream, pasa por Kinesis Firehose, opcionalmente se transforma con Lambda y se entrega a un destino como Elasticsearch, S3, Redshift o sistemas de terceros. Luego, se habilita una capa de visualización.
¿Cómo se orquesta la transformación con Lambda?
- Configura Kinesis Firehose y conéctalo a una función Lambda.
- Toda la data que ingresa se envía a Lambda para transformación.
- La data transformada retorna a Firehose para su entrega final.
- Beneficio clave: estandarizar formatos y enriquecer eventos antes de almacenarlos.
¿Qué destinos soporta para entrega y visualización?
- S3: almacenamiento duradero de datos crudos y transformados.
- Redshift: uso como data warehouse para análisis estructurado.
- Amazon Elasticsearch Service: indexación por índices y visualización en Kibana.
- Splunk: monitoreo y auditoría en tiempo casi real.
- Capa de visualización posterior para explorar y compartir hallazgos.
¿Cómo maneja errores y registros fuente?
- Envía automáticamente a S3 las transformaciones fallidas y los source records.
- Asegura trazabilidad y re-procesamiento cuando sea necesario.
- Mejora la confiabilidad en pipelines de streaming.
¿Qué arquitecturas típicas puedes implementar con Kinesis Firehose?
Con Firehose se componen flujos paso a paso para procesar, transformar, enviar y visualizar datos en AWS.
- Kinesis Data Stream → Kinesis Firehose → Elasticsearch.
- Útil para indexar datos y visualizarlos en Kibana.
- Kinesis Data Stream → Kinesis Firehose → Lambda → Redshift → QuickSight.
- Permite transformar eventos y crear tableros con QuickSight.
- Nota operativa: en Elasticsearch existen los índices; por cada índice se necesita un cluster y un Kinesis Firehose completamente diferente.
Habilidades y conceptos que se trabajan en este flujo: - Configurar un data source y encadenarlo con Kinesis Data Streams. - Diseñar pipelines de entrega en tiempo real con Kinesis Firehose. - Implementar transformaciones con Lambda integradas al flujo. - Definir índices y preparar un cluster de Elasticsearch para ingesta. - Redirigir source records y errores a S3 para resiliencia. - Conectar destinos como Redshift, Kibana, Splunk y QuickSight para análisis y visualización.
¿Te resultó útil este recorrido? Comparte en los comentarios cómo estás diseñando tus flujos con Kinesis Firehose y qué destinos estás utilizando.