Bienvenida e introducci贸n al curso

1

Iniciando con Big Data

2

Cloud Computing en proyectos de BigData

3

Introducci贸n al manejo de datos en Cloud

4

Datos en Cloud

5

驴Qu茅 nube deber铆a utilizar en mi proyecto de Big Data?

Arquitecturas

6

Arquitecturas Lambda

7

Arquitectura Kappa

8

Arquitectura Batch

Extracci贸n de informaci贸n

9

Llevar tu informaci贸n al cloud

10

Demo - Creando nuestro IDE en la nube con Python - Boto3

11

驴C贸mo usar Boto3?

12

API Gateway

13

Storage Gateway

14

Kinesis Data Streams

15

Configuraci贸n de Kinesis Data Streams

16

Demo - Despegando Kinesis con Cloudformation

17

Kinesis Firehose

18

Demo - Configuraci贸n de Kinesis Firehose

19

Reto - Configurando Kinesis Firehose

20

AWS - MSK

21

Demo - Despliegue de un cl煤ster con MSK

Transformaci贸n de Informaci贸n

22

AWS - Glue

23

Demo - Instalando Apache Zeppelin

24

Creaci贸n del Developer Endpoint

25

Demo - Conectando nuestro developer Endpoint a nuestro Zeppelin Edpoint

26

Demo - Creando nuestro primer ETL - Crawling

27

Demo - Creando nuestro primer ETL - Ejecuci贸n

28

Demo - Creando nuestro primer ETL - Carga

29

AWS - EMR

30

Demo - Desplegando nuestro primer cl煤ster con EMR

31

Demo - Conect谩ndonos a Apache Zeppelin en EMR

32

Demo- Despliegue autom谩tico de EMR con cloudformation

33

AWS - Lambda

34

Ejemplos AWS- Lambda

35

Demo - Creando una lambda para BigData

Carga de Informaci贸n

36

AWS - Athena

37

Demo - Consultando data con Athena

38

AWS - RedShift

39

Demo - Creando nuestro primer cl煤ster de RedShift

40

AWS - Lake Formation

Consumo de informaci贸n

41

AWS - ElasticSearch

42

Demo - Creando nuestro primer cl煤ster de ElasticSearch

43

AWS - Kibana

44

AWS - QuickSight

45

Demo - Visualizando nuestra data con QuickSight

Seguridad, Orquestaci贸n y Automatizaci贸n

46

Seguridad en los Datos

47

AWS Macie

48

Demo - Configurando AWS Macie

49

Apache Airflow

50

Demo - Creando nuestro primer cl煤ster en Cloud Composer

51

Arquitectura de referencia

Clase p煤blica

52

驴Qu茅 es Big Data?

No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Curso de Big Data en AWS

Curso de Big Data en AWS

Carlos Andr茅s Zambrano Barrera

Carlos Andr茅s Zambrano Barrera

Kinesis Data Streams

14/52
Recursos
  • Tienes que pensar en procesar grandes cantidades de datos, desde TB hasta EB.
  • Algunos casos de uso son para procesar informaci贸n de logs, social media, market data feeds y web clickstream.
  • La unidad fundamental dentro de Kinesis se llama Data Record.
  • La informaci贸n dentro de Kinesis por defecto solamente cuenta con un periodo de retenci贸n de 24 horas.
  • El Shard es una secuencia de Data Records dentro de un stream.

Aportes 10

Preguntas 2

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Caracter铆sticas de Kinesis Data Streams:

  • Recopila y procesa grandes cantidades de stream de datos en tiempo real. Deben ser gigantescas cantidades de datos (TB, HB, con miles o millones de fuentes de informaci贸n que alimentan el servicio).
  • Casos de uso: Procesamiento de logs, social media, market data feeds y web clickstream.
  • Kinesis Data Streams nos permite hacer agregaciones en el proceso de informaci贸n; es decir, podemos juntar informaci贸n, agruparla y hacer ciertas actividades con dicha informaci贸n mientras es procesada.

As铆 est谩 compuesto Kinesis Data Streams:

  • Data Record: Es la unidad de dato almacenada en Kinesis Data Streams.
  • Retention period: El tiempo en que la informaci贸n se mantiene accesible despu茅s de ser agregada al stream. Es muy importante tener en cuenta que Kinesis Data Streams no es un servicio para almacenar informaci贸n, pero podemos contar con un periodo de retenci贸n, que por defecto es de 24 horas.
  • Producer: Es el encargado de poner el Data Record en Kinesis Data Streams.
  • Consumer: Toma los Data Records ya procesados de Kinesis Data Streams para alimentar otro sistema de informaci贸n.
  • Shard: Es una secuencia de Data Records dentro de un stream. En la configuraci贸n de Kinesis, debemos especificar la cantidad de shards, y la cantidad de shard estar谩 determinada principalmente por la cantidad del flujo de informaci贸n que tengamos.
  • Partition key: Se usa para agrupar la informaci贸n por shard dentro de un stream.

Es as铆 que Kinesis Data Streams se convierte en una parte fundamental de arquitecturas en tiempo real, arquitecturas en las cuales la necesidad principal es procesar millones de datos; se puede crecer N cantidad de shards y procesar de acuerdo a lo que permitan los shards en tama帽o.

Kinesis Data Stream nos brinda alta disponibilidad, redundancia y un performance muy alto para manejar grandes cantidades de datos en tiempo real.

Este kinesis es similar kafka?

saludos carlos una duda el programa pentaho ya no se utiliza para hacer transformaciones o pasar informacion en big data? gracias.

Estimado Carlos , existen herramientas como pentaho y talend que hace transformacion de datos , se puede usar y instalar en aws

La cantidad de shard va a estar determinada por la cantidad del flujo de la informaci贸n que tengamos.

S煤per interesante 馃槻

Tienes que pensar en procesar grandes cantidades de datos, desde TB hasta EB.
Algunos casos de uso son para procesar informaci贸n de logs, social media, market data feeds y web clickstream.
La unidad fundamental dentro de Kinesis se llama Data Record.
La informaci贸n dentro de Kinesis por defecto solamente cuenta con un periodo de retenci贸n de 24 horas.
El Shard es una secuencia de Data Records dentro de un stream.

excelente e interesante Kinesis

Kinesis Data Streams maneja grandes cantidades de datos en tiempo real

Qu茅 relaci贸n tienen Kinesis con Kafka ?
este ultimo corre por debajo de Kinesis o la tecnolog铆a es diferente ?