Bienvenida e introducción al curso

1

Iniciando con Big Data

2

Cloud Computing en proyectos de BigData

3

Introducción al manejo de datos en Cloud

4

Datos en Cloud

5

¿Qué nube debería utilizar en mi proyecto de Big Data?

Arquitecturas

6

Arquitecturas Lambda

7

Arquitectura Kappa

8

Arquitectura Batch

Extracción de información

9

Llevar tu información al cloud

10

Demo - Creando nuestro IDE en la nube con Python - Boto3

11

¿Cómo usar Boto3?

12

API Gateway

13

Storage Gateway

14

Kinesis Data Streams

15

Configuración de Kinesis Data Streams

16

Demo - Despegando Kinesis con Cloudformation

17

Kinesis Firehose

18

Demo - Configuración de Kinesis Firehose

19

Reto - Configurando Kinesis Firehose

20

AWS - MSK

21

Demo - Despliegue de un clúster con MSK

Transformación de Información

22

AWS - Glue

23

Demo - Instalando Apache Zeppelin

24

Creación del Developer Endpoint

25

Demo - Conectando nuestro developer Endpoint a nuestro Zeppelin Edpoint

26

Demo - Creando nuestro primer ETL - Crawling

27

Demo - Creando nuestro primer ETL - Ejecución

28

Demo - Creando nuestro primer ETL - Carga

29

AWS - EMR

30

Demo - Desplegando nuestro primer clúster con EMR

31

Demo - Conectándonos a Apache Zeppelin en EMR

32

Demo- Despliegue automático de EMR con cloudformation

33

AWS - Lambda

34

Ejemplos AWS- Lambda

35

Demo - Creando una lambda para BigData

Carga de Información

36

AWS - Athena

37

Demo - Consultando data con Athena

38

AWS - RedShift

39

Demo - Creando nuestro primer clúster de RedShift

40

AWS - Lake Formation

Consumo de información

41

AWS - ElasticSearch

42

Demo - Creando nuestro primer clúster de ElasticSearch

43

AWS - Kibana

44

AWS - QuickSight

45

Demo - Visualizando nuestra data con QuickSight

Seguridad, Orquestación y Automatización

46

Seguridad en los Datos

47

AWS Macie

48

Demo - Configurando AWS Macie

49

Apache Airflow

50

Demo - Creando nuestro primer clúster en Cloud Composer

51

Arquitectura de referencia

Clase pública

52

¿Qué es Big Data?

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Curso de Big Data en AWS

Curso de Big Data en AWS

Carlos Andrés Zambrano Barrera

Carlos Andrés Zambrano Barrera

Arquitecturas Lambda

6/52
Recursos

La arquitectura Lambda es atribuida a Nathan Marz, diseñada para ser escalable, tolerante a fallos y de alto procesamiento de datos.

Tiene una gran robustez, puede procesar una alta cantidad de datos. Está compuesta por tres capas:

  1. Batch: En esta capa vamos a procesar toda la información almacenada con anterioridad, desde el día anterior hasta meses.
  2. Serve: Dentro de esta capa es posible visualizar la data procesada de la capa batch.
  3. Speed: Conforme llega la data se va a ir procesando.

Aportes 9

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Es atribuida a Nathan Marz. Se diseñó como una arquitectura escalable, tolerante a fallos y de alto procesamiento de datos.
Esta arquitectura buscaba satisfacer necesidades de procesamiento de datos en altas cantidades.
Se compone de tres capas: Batch, Serve y Speed.

  • Batch: En esta capa vamos a procesar toda la información almacenada con anterioridad, desde el día anterior hasta meses.
  • Serve: Dentro de esta capa es posible visualizar la información procesada desde la capa batch.
  • Speed: Conforme llega la información se va a ir procesando.

En esta arquitectura, podemos ver que se hace uso tanto de la capa Batch como de la capa Speed (las cuales están enfocadas al mismo objetivo general: alimentar otro servicio), y al tenerlas combinadas, se aumenta la complejidad en cuanto a cargas de administración. Sin embargo, esta arquitectura es bastante usada, y puede ser aprovechada manejando las capas Batch y Serve para datos que puedan ser tratados de manera histórica, y trabajar en la capa Speed información que requiera ser procesada y visualizada en tiempo real, todo en un mismo proyecto. Aunque muchas veces sólo es utilizada una o dos de las tres capas que tenemos disponibles en esta arquitectura.

aparte de la arquitectura lambda me podrias indicar otras arquitecturas ? y cual me recomiendas utilizar ?

book–Big Data teaches you to build big data systems using an architecture designed specifically to capture and analyze web-scale data. This book presents the Lambda Architecture, a scalable, easy-to-understand approach that can be built and run by a small team. You’ll explore the theory of big data systems and how to implement them in practice. In addition to discovering a general framework for processing big data, you’ll learn specific technologies like Hadoop, Storm, and NoSQL databases.

Web-scale applications like social networks, real-time analytics, or e-commerce sites deal with a lot of data, whose volume and velocity

Excelente explicación no solo de la Arquitectura Lambda, sino de los casos de uso para las capas Batch y Speed es importante esto de conocer la razon de ser de cada una.

La arquitectura Lambda es atribuida a Nathan Marz, diseñada para ser escalable, tolerante a fallos y de alto procesamiento de datos.

Tiene una gran robustez, puede procesar una alta cantidad de datos. Está compuesta por tres capas:

Batch: En esta capa vamos a procesar toda la información almacenada con anterioridad, desde el día anterior hasta meses.
Serve: Dentro de esta capa es posible visualizar la data procesada de la capa batch.
Speed: Conforme llega la data se va a ir procesando.

Otro uso de Lambda, procesar grandes cantidades de datos

interesantisimo. 😃

Muy clara la explicación por parte del docente.