Bienvenida e introducción al curso

1

Iniciando con Big Data

2

Cloud Computing en proyectos de BigData

3

Introducción al manejo de datos en Cloud

4

Datos en Cloud

5

¿Qué nube debería utilizar en mi proyecto de Big Data?

Arquitecturas

6

Arquitecturas Lambda

7

Arquitectura Kappa

8

Arquitectura Batch

Extracción de información

9

Llevar tu información al cloud

10

Demo - Creando nuestro IDE en la nube con Python - Boto3

11

¿Cómo usar Boto3?

12

API Gateway

13

Storage Gateway

14

Kinesis Data Streams

15

Configuración de Kinesis Data Streams

16

Demo - Despegando Kinesis con Cloudformation

17

Kinesis Firehose

18

Demo - Configuración de Kinesis Firehose

19

Reto - Configurando Kinesis Firehose

20

AWS - MSK

21

Demo - Despliegue de un clúster con MSK

Transformación de Información

22

AWS - Glue

23

Demo - Instalando Apache Zeppelin

24

Creación del Developer Endpoint

25

Demo - Conectando nuestro developer Endpoint a nuestro Zeppelin Edpoint

26

Demo - Creando nuestro primer ETL - Crawling

27

Demo - Creando nuestro primer ETL - Ejecución

28

Demo - Creando nuestro primer ETL - Carga

29

AWS - EMR

30

Demo - Desplegando nuestro primer clúster con EMR

31

Demo - Conectándonos a Apache Zeppelin en EMR

32

Demo- Despliegue automático de EMR con cloudformation

33

AWS - Lambda

34

Ejemplos AWS- Lambda

35

Demo - Creando una lambda para BigData

Carga de Información

36

AWS - Athena

37

Demo - Consultando data con Athena

38

AWS - RedShift

39

Demo - Creando nuestro primer clúster de RedShift

40

AWS - Lake Formation

Consumo de información

41

AWS - ElasticSearch

42

Demo - Creando nuestro primer clúster de ElasticSearch

43

AWS - Kibana

44

AWS - QuickSight

45

Demo - Visualizando nuestra data con QuickSight

Seguridad, Orquestación y Automatización

46

Seguridad en los Datos

47

AWS Macie

48

Demo - Configurando AWS Macie

49

Apache Airflow

50

Demo - Creando nuestro primer clúster en Cloud Composer

51

Arquitectura de referencia

Clase pública

52

¿Qué es Big Data?

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

No se trata de lo que quieres comprar, sino de quién quieres ser. Aprovecha el precio especial.

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

14 Días
13 Hrs
4 Min
34 Seg
Curso de Big Data en AWS

Curso de Big Data en AWS

Carlos Andrés Zambrano Barrera

Carlos Andrés Zambrano Barrera

AWS - Glue

22/52
Recursos

Dentro de este módulo vamos a ver las herramientas que proporciona la nube de AWS para poder transformar nuestra data.

Algunas características de Glue:

  • Servicio totalmente administrado para implementar ETL (Extract, Transform, Load).
  • Provee un contexto para trabajar basados en Python, Spark y Scala.
  • Se encarga de crear catálogos de metadatos para que otros servicios puedan consultar la información.
  • Utiliza unidades de procesamiento llamadas DPU equivalente a 4 vCPU y 16GB RAM.
  • Los Crawler van a escanear e identificar la información para ponerla en el catálogo.
  • Los Classifier van a clasificar la data para ponerla en el catálogo.

Aportes 10

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Algunas características de Glue:

Servicio totalmente administrado para implementar ETL (Extract, Transform, Load).
Provee un contexto para trabajar basados en Python, Spark y Scala.
Se encarga de crear catálogos de metadatos para que otros servicios puedan consultar la información.
Utiliza unidades de procesamiento llamadas DPU equivalente a 4 vCPU y 16GB RAM.
Los Crawler van a escanear e identificar la información para ponerla en el catálogo.
Los Classifier van a clasificar la data para ponerla en el catálogo.

La nueva funcionalidad de Glue para medir calidad de datos “Data Quality” es una buena opcion cuando no se puede pagar herramientas costosas.

Glue lo vamos a usar cuando queremos hacer transformación de la información. Glue organiza la información cruda en tablas.

Dentro de este módulo vamos a ver las herramientas que proporciona la nube de AWS para poder transformar nuestra data.

Hola, es posible dejar disponible un mismo Glue Catalog para distintas cuentas de AWS ?

AWS Glue is a fully managed ETL (extract, transform, and load) service that makes it simple and cost-effective to categorize your data, clean it, enrich it, and move it reliably between various data stores. AWS Glue consists of a central data repository known as the AWS Glue Data Catalog, an ETL engine that automatically generates Python code, and a flexible scheduler that handles dependency resolution, job monitoring, and retries. AWS Glue is serverless, so there’s no infrastructure to set up or manage. Use the AWS Glue console to discover your data, transform it, and make it available for search and querying. You can also use the AWS Glue API operations to interface with AWS Glue

AWS Glue is designed to work with semi-structured data. It introduces a component called a dynamic frame, which you can use in your ETL scripts. A dynamic frame is similar to an Apache Spark dataframe, which is a data abstraction used to organize data into rows and columns, except that each record is self-describing so no schema is required initially. With dynamic frames, you get schema flexibility and a set of advanced transformations specifically designed for dynamic frames. You can convert between dynamic frames and Spark dataframes, so that you can take advantage of both AWS Glue and Spark transformations to do the kinds of analysis that you want.

Cuando usar Glue?
AWS Glue simplifies many tasks when you are building a data warehouse or data lake:

Discovers and catalogs metadata about your data stores into a central catalog. You can process semi-structured data, such as clickstream or process logs.

Populates the AWS Glue Data Catalog with table definitions from scheduled crawler programs. Crawlers call classifier logic to infer the schema, format, and data types of your data. This metadata is stored as tables in the AWS Glue Data Catalog and used in the authoring process of your ETL jobs.

Generates ETL scripts to transform, flatten, and enrich your data from source to target.

Detects schema changes and adapts based on your preferences.

Triggers your ETL jobs based on a schedule or event. You can initiate jobs automatically to move your data into your data warehouse or data lake. Triggers can be used to create a dependency flow between jobs.

Gathers runtime metrics to monitor the activities of your data warehouse or data lake.

Handles errors and retries automatically.

Scales resources, as needed, to run your jobs.

Un tool más dentro del abanico de opciones de servicios administrados que tiene AWS.! Excelente.

Servicios administrados de AWS.