Bienvenida e introducción al curso

1

Análisis de Grandes Datos con Amazon Web Services

2

Transformación de Big Data en Entornos Cloud

3

Escalabilidad y Eficiencia de Big Data en Cloud Computing

4

Almacenamiento y Procesamiento de Datos en Cloud Providers

5

Comparativa de AWS y GCP para Proyectos Big Data

Arquitecturas

6

Arquitectura Lambda: Procesamiento Batch y en Tiempo Real

7

Procesamiento de Datos en Tiempo Real con Arquitectura Kappa

8

Procesamiento Batch en la Nube: Almacenamiento y Orquestación

Extracción de información

9

Estrategias para Migrar Datos a la Nube

10

Creación de un IDE en la Nube con AWS Cloud9 y Python

11

Interacción con AWS S3 usando Boto3 en Python

12

Uso de AWS API Gateway en Proyectos Big Data

13

Configuración de AWS Storage Gateway en entornos on-premise

14

Procesamiento de Datos en Tiempo Real con AWS Kinesis

15

Creación y Configuración de Kinesis Data Streams en AWS

16

Despliegue de Kinesis con CloudFormation en AWS

17

Transformaciones de Datos con Kinesis Firehose en AWS

18

Configuración de Kinesis Firehose en AWS paso a paso

19

Kinesis Firehose: Envío de Datos a S3 Paso a Paso

20

AWS MSK: Gestión y Despliegue de Apache Kafka en la Nube

21

Despliegue de MSK en AWS: Configuración y Conexiones

Transformación de Información

22

Transformación de Datos con AWS Glue y Catálogo en la Nube

23

Instalación y configuración de Apache Zeppelin para AWS Glue

24

Configura Apache Zeppelin con AWS Glue paso a paso

25

Configuración de Apache Zeppelin para Spark y AWS Glue

26

Creación de Crawlers con AWS Glue paso a paso

27

Ejecución de ETL en AWS Glue con PySpark

28

Transformación de Datos con AWS Glue: Creación de ETL en Spark

29

Procesamiento de Grandes Datos con Amazon EMR

30

Creación de clúster EMR en AWS paso a paso

31

Conexión de Apache Zeppelin a EMR: Configuración y Puertos

32

Despliegue de Clúster EMR con CloudFormation Automatizado

33

Gestión de AWS Lambda para Proyectos Big Data en Tiempo Real

34

Funciones Lambda en Proyectos Big Data: Casos de Uso Prácticos

35

Lambdas para Big Data: Gestión y Configuración en AWS

Carga de Información

36

Consultas SQL en S3 con AWS Athena

37

Consultas SQL en S3 con Athena y Glue Catalog en AWS

38

Consultas Complejas en AWS Redshift y su Optimización

39

Configuración de Amazon Redshift en AWS paso a paso

40

Optimización de Data Lakes con AWS Lake Formation

Consumo de información

41

Búsqueda Eficiente con Elasticsearch y Kibana en AWS

42

Despliegue de Clúster Elasticsearch en AWS: Paso a Paso Completo

43

Visualización de Datos con Kibana y Elasticsearch en AWS

44

Visualización de Datos con AWS QuickSight

45

Habilitación y uso de QuickSight en AWS

Seguridad, Orquestación y Automatización

46

Seguridad en AWS para Big Data: Cifrado, Permisos y Monitoreo

47

Seguridad de Datos en AWS con Macie

48

Configuración y Optimización de AWS Macie para Gestión de Datos Sensibles

49

Orquestación de ETLs con Apache Airflow y Python

50

Orquestación de Tareas con Apache Airflow en Google Cloud

51

Arquitecturas Big Data en AWS: Procesamiento Batch y Tiempo Real

Clase pública

52

Analítica de Big Data: Estrategias en AWS y Google Cloud

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Curso de Big Data en AWS

Curso de Big Data en AWS

Carlos Andrés Zambrano Barrera

Carlos Andrés Zambrano Barrera

Transformaciones de Datos con Kinesis Firehose en AWS

17/52
Recursos
  1. Completamente administrado para la entrega de datos en tiempo real.
  2. Permite usar una lambda para transformar la data.
  3. Puede alimentar a diferentes sistemas de almacenamiento.

Aportes 5

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Dentro del mundo de Kinesis, tenemos varios tipos; en este caso, nos fijaremos en Firehose.

Este servicio tiene ciertas características:

  • Este es un servicio completamente administrado para la entrega de datos de streaming en tiempo real.
  • Puede utilizar otros servicios como funciones Lambda para transformar la información.
  • Puede ingestar la información a diferentes servicios como S3, RedShift, ElasticSearch, Splunk, etc.

Es muy importante tener en cuenta en las arquitecturas que realicemos, que por cada índice se debe tener un Kinesis Firehose diferente.

Kinesis Firehose puede utilizarse conjuntamente con un Kinesis Data Stream, ubicándose después de éste último mencionado.

Aquí, el data source podría ser también un Kinesis Data Stream.

Está muy claro que Kinesis Firehouse procesa información, pero entonces Kinesis Data Stream aparentement solo es un paso de la información para distribuir a diversos servicios sin hacer procesamiento. Es correcto este entendimiento?

Completamente administrado para la entrega de datos en tiempo real.
Permite usar una lambda para transformar la data.
Puede alimentar a diferentes sistemas de almacenamiento.

que potente haciendo input a S3, redshift, elasticsearch, splunk

Hola buenos dias,

Me preguntaba si pudia conectar un firehose directamente a un productor de datos en tiempo real en lugar de conectar el kinesis data stream?

Muchas gracias