Bienvenida e introducción al curso

1

Iniciando con Big Data

2

Cloud Computing en proyectos de BigData

3

Introducción al manejo de datos en Cloud

4

Datos en Cloud

5

¿Qué nube debería utilizar en mi proyecto de Big Data?

Arquitecturas

6

Arquitecturas Lambda

7

Arquitectura Kappa

8

Arquitectura Batch

Extracción de información

9

Llevar tu información al cloud

10

Demo - Creando nuestro IDE en la nube con Python - Boto3

11

¿Cómo usar Boto3?

12

API Gateway

13

Storage Gateway

14

Kinesis Data Streams

15

Configuración de Kinesis Data Streams

16

Demo - Despegando Kinesis con Cloudformation

17

Kinesis Firehose

18

Demo - Configuración de Kinesis Firehose

19

Reto - Configurando Kinesis Firehose

20

AWS - MSK

21

Demo - Despliegue de un clúster con MSK

Transformación de Información

22

AWS - Glue

23

Demo - Instalando Apache Zeppelin

24

Creación del Developer Endpoint

25

Demo - Conectando nuestro developer Endpoint a nuestro Zeppelin Edpoint

26

Demo - Creando nuestro primer ETL - Crawling

27

Demo - Creando nuestro primer ETL - Ejecución

28

Demo - Creando nuestro primer ETL - Carga

29

AWS - EMR

30

Demo - Desplegando nuestro primer clúster con EMR

31

Demo - Conectándonos a Apache Zeppelin en EMR

32

Demo- Despliegue automático de EMR con cloudformation

33

AWS - Lambda

34

Ejemplos AWS- Lambda

35

Demo - Creando una lambda para BigData

Carga de Información

36

AWS - Athena

37

Demo - Consultando data con Athena

38

AWS - RedShift

39

Demo - Creando nuestro primer clúster de RedShift

40

AWS - Lake Formation

Consumo de información

41

AWS - ElasticSearch

42

Demo - Creando nuestro primer clúster de ElasticSearch

43

AWS - Kibana

44

AWS - QuickSight

45

Demo - Visualizando nuestra data con QuickSight

Seguridad, Orquestación y Automatización

46

Seguridad en los Datos

47

AWS Macie

48

Demo - Configurando AWS Macie

49

Apache Airflow

50

Demo - Creando nuestro primer clúster en Cloud Composer

51

Arquitectura de referencia

Clase pública

52

¿Qué es Big Data?

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Curso de Big Data en AWS

Curso de Big Data en AWS

Carlos Andrés Zambrano Barrera

Carlos Andrés Zambrano Barrera

Demo - Instalando Apache Zeppelin

23/52
Recursos

Apache Zeppelin es un servicio que permite la ejecución de notebooks para análisis de datos utilizando SQL, Scala o Python. Tiene integración con los servicios de AWS.

Aportes 13

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Vale la pena resaltar que debemos tener Java instalado en nuestra pc. De no ser así al momento de activar Zeppelin nos va a mostrar algo como “Zeppelin process died”. Dejo la instalación para Ubuntu y Linux Mint (64 bit):
sudo add-apt-repository ppa:linuxuprising/java
sudo apt update
sudo apt install oracle-java11-installer

Instalación con Docker

Puedes usar este archivo de docker-compose.yml

version: "3"

volumes:
  zeppelin_notebook: {}
  zeppelin_conf: {}

services:
  zeppelin:
    image: apache/zeppelin:0.8.1
    volumes:
      - zeppelin_notebook:/zeppelin/notebook
      - zeppelin_conf:/zeppelin/conf
    ports:
      - '8080:8080'

y ejecutarlo con

docker-compose up

AWS Glue provides a console and API operations to set up and manage your extract, transform, and load (ETL) workload. You can use API operations through several language-specific SDKs and the AWS Command Line Interface (AWS CLI). For information about using the AWS CLI, see AWS CLI Command Reference.

AWS Glue uses the AWS Glue Data Catalog to store metadata about data sources, transforms, and targets. The Data Catalog is a drop-in replacement for the Apache Hive Metastore. The AWS Glue Jobs system provides a managed infrastructure for defining, scheduling, and running ETL operations on your data. For more information about the AWS Glue API, see

Interesante este tool de Apache Zeepeling. Sin embargo se tiene servicios en Cloud como https://colab.research.google.com/ donde no es necesario instalar un app en el PC. ¿Consulta, Sabes si Google Colab se puede conectar directamente a AWS para poder analizar los datos?

No me hice tanto lio, simplemente con docker instalado ejecute

docker pull apache/zeppelin:0.10.0

una vez descargadas las imagenes

docker run -p 8080:8080 -p 4040:4040 -p 4041:4041 -p 4042:4042 -v /zeppelin/notebook:/zeppelin/notebook --name zeppelin apache/zeppelin:0.10.0

Y listo.

Para cambiar la configuración por defecto del puerto 8080 para iniciar Apache Zeppelin, deben abrir el archivo “zeppelin-site.xml.template” ubicado en la carpeta “conf” que se encuentra en la carpeta descargada y descomprimida de instalación de Apache Zeppelin.

Una vez abierto, deben cambiar el puerto en la siguiente línea de código:

<property>
  <name>zeppelin.server.port</name>
  <value>8081</value>
  <description>Server port.</description>
</property>

Una vez modificado deben guardar el archivo, para ahora renombrarlo de “zeppelin-site.xml.template” a “zeppelin-site.xml” sacando la extensión “.template”. En el caso de ya estar iniciado Apache Zeppelin, se debe reiniciar, de caso contrario, ya se puede levantar Apache Zeppelin para que sea ejecutado con el server port configurado en este caso 8081, el cuál puede ser comprobado con la ruta “localhost:8081”.

Apache Zeppelin es un servicio que permite la ejecución de notebooks para análisis de datos utilizando SQL, Scala o Python. Tiene integración con los servicios de AWS.

la verdad que la instalacion de estos setups es realmente un curso aparte , o falla docker o falla ubuntu en windows , para estas cosas windows es un dolor de cabeza , ya me ha pasado con apache hadoop , demoras mas en la instalacion que en lo que cuesta aprender a usarlo , en fin , no son los unicos jaja

Más integraciones con AWS.

buenas… si comienzo a usar este servicio (Zeppelin), como serian los cobros al usarlo con AWS ??

En caso de usar windows, que aplicación puedo usar para instalar apache Zeppelin?

Amazon EMR es una plataforma de clúster administrada que simplifica la ejecución de los marcos de trabajo de Big Data, tales como Apache Hadoop y Apache Spark en AWS para procesar y analizar grandes cantidades de datos. Mediante el uso de estos marcos de trabajo y proyectos de código abierto relacionados, como Apache Hive y Apache Pig, puede procesar datos para fines de análisis y cargas de trabajo de inteligencia empresarial. Además, puede utilizar Amazon EMR para transformar y trasladar grandes cantidades de datos hacia y desde otros almacenes de datos y bases de datos de AWS, tales como Amazon Simple Storage Service (Amazon S3) y Amazon DynamoDB.
Fuente AWS