Bienvenida e introducci贸n al curso

1

Iniciando con Big Data

2

Cloud Computing en proyectos de BigData

3

Introducci贸n al manejo de datos en Cloud

4

Datos en Cloud

5

驴Qu茅 nube deber铆a utilizar en mi proyecto de Big Data?

Arquitecturas

6

Arquitecturas Lambda

7

Arquitectura Kappa

8

Arquitectura Batch

Extracci贸n de informaci贸n

9

Llevar tu informaci贸n al cloud

10

Demo - Creando nuestro IDE en la nube con Python - Boto3

11

驴C贸mo usar Boto3?

12

API Gateway

13

Storage Gateway

14

Kinesis Data Streams

15

Configuraci贸n de Kinesis Data Streams

16

Demo - Despegando Kinesis con Cloudformation

17

Kinesis Firehose

18

Demo - Configuraci贸n de Kinesis Firehose

19

Reto - Configurando Kinesis Firehose

20

AWS - MSK

21

Demo - Despliegue de un cl煤ster con MSK

Transformaci贸n de Informaci贸n

22

AWS - Glue

23

Demo - Instalando Apache Zeppelin

24

Creaci贸n del Developer Endpoint

25

Demo - Conectando nuestro developer Endpoint a nuestro Zeppelin Edpoint

26

Demo - Creando nuestro primer ETL - Crawling

27

Demo - Creando nuestro primer ETL - Ejecuci贸n

28

Demo - Creando nuestro primer ETL - Carga

29

AWS - EMR

30

Demo - Desplegando nuestro primer cl煤ster con EMR

31

Demo - Conect谩ndonos a Apache Zeppelin en EMR

32

Demo- Despliegue autom谩tico de EMR con cloudformation

33

AWS - Lambda

34

Ejemplos AWS- Lambda

35

Demo - Creando una lambda para BigData

Carga de Informaci贸n

36

AWS - Athena

37

Demo - Consultando data con Athena

38

AWS - RedShift

39

Demo - Creando nuestro primer cl煤ster de RedShift

40

AWS - Lake Formation

Consumo de informaci贸n

41

AWS - ElasticSearch

42

Demo - Creando nuestro primer cl煤ster de ElasticSearch

43

AWS - Kibana

44

AWS - QuickSight

45

Demo - Visualizando nuestra data con QuickSight

Seguridad, Orquestaci贸n y Automatizaci贸n

46

Seguridad en los Datos

47

AWS Macie

48

Demo - Configurando AWS Macie

49

Apache Airflow

50

Demo - Creando nuestro primer cl煤ster en Cloud Composer

51

Arquitectura de referencia

Clase p煤blica

52

驴Qu茅 es Big Data?

A煤n no tienes acceso a esta clase

Crea una cuenta y contin煤a viendo este curso

Curso de Big Data en AWS

Curso de Big Data en AWS

Carlos Andr茅s Zambrano Barrera

Carlos Andr茅s Zambrano Barrera

Seguridad en los Datos

46/52
Recursos
  • En todos los servicios que te lo permitan deber铆as activar el cifrado.
  • Asigna de forma granular los permisos que tengan tus usuarios. Mientras m谩s espec铆fico mejor.
  • Es recomendable siempre utilizar servicios administrados, serverless.
  • Monitorea siempre tus servicios.
  • Siempre ejecuta pruebas antes de mandar la informaci贸n a producci贸n.

Aportes 4

Preguntas 0

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesi贸n.

Seguridad en los datos

Cifrado: Utilizarlo en todos los servicios que lo permitan. La mayor铆a de servicios incluyen integraci贸n con KMS.

Permisos: La mayor granularidad que se pueda implementar, garantizar el acceso a la data puntual que se requiera.

Servicios: Reducir la administraci贸n con serverless, esto aumenta la disponibilidad y el performance de nuestros servicios.

Monitoreo: Registrar todos los logs de ejecuci贸n nos permite identificar problemas.

Contingencia: Desplegar en m煤ltiples regiones, replicar la data entre regiones.

Test: siempre verificar la data que est谩 llegando antes de pasar a producci贸n.

  • Cifrado: Siempre, y en todos los servicios que lo permitan, debemos habilitar el cifrado. La mayor铆a de servicios tiene integraci贸n con KMS. Podemos crear nuestras propias llaves de KMS y configurarlas en todos los servicios.
  • Permisos: El permiso m谩s detallado posible, la mayor granularidad que podamos asignar en los permisos va a ser vital. Cuando hablamos de datos, podemos tomar todas las medidas de seguridad y a nivel de permisos es fundamental. Si alg煤n usuario necesitase acceder a la informaci贸n, debemos garantizar el s贸lo otorgarle acceso a la informaci贸n espec铆fica que requiere con el permiso que requiere; obviamente aumenta un poco la carga de administraci贸n, pero todo es en pro de la seguridad.
  • Servicios: Dentro de AWS, es muy recomendable, para proyectos de BigData, utilizar en lo mayor posible servicios administrados (serverless), que no dependan de servidores; esto reduce la administraci贸n, aumenta la alta disponibilidad y el performance de nuestros servicios dentro de AWS.
  • Monitoreo: En todos los servicios debemos garantizar que registren todos los logs de ejecuci贸n; el monitoreo es fundamental a nivel de logging y a nivel de performance del servicio. Esto nos puede ayudar para identificar problemas y mejorar el rendimiento de nuestras aplicaciones. El monitoreo de los datos es: 驴d贸nde est谩n?, 驴qui茅n?, 驴cu谩ndo?, 驴por qu茅?, etc.
  • Contingencia: Debemos dise帽ar todos los servicios con un alto nivel de contingencia; es decir, desplegarlos en m煤ltiples zonas, multi-regi贸n, replicar la informaci贸n entre regiones, pruebas de DRP, almacenar informaci贸n hist贸rica, etc.
  • Test: Siempre hagamos pruebas sobre la informaci贸n que estemos recibiendo, siempre verifiquemos la informaci贸n antes de irnos a producci贸n, ejecutemos los Pipelines, hagamos pruebas con los servicios, tomemos ventaja de todo lo que nos brinda la nube para utilizar los servicios de BigData y hacer pruebas sobre informaci贸n que tengamos, pero nunca utilicemos la informaci贸n de producci贸n para hacer pruebas.

En todos los servicios que te lo permitan deber铆as activar el cifrado.
Asigna de forma granular los permisos que tengan tus usuarios. Mientras m谩s espec铆fico mejor.
Es recomendable siempre utilizar servicios administrados, serverless.
Monitorea siempre tus servicios.
Siempre ejecuta pruebas antes de mandar la informaci贸n a producci贸n.

Cifrado- KMS
Permisos- mas detallado y granularidad.roles
Servicios.
Monitoreo Cloudwatch. logging and performance.(preguntas importantes de auditoria)
Contingencia . multiregion
Test, testing siempre en diferentes non prod environments