platzi tiene un curso de airtflow?
Bienvenida e introducción al curso
Iniciando con Big Data
Cloud Computing en proyectos de BigData
Introducción al manejo de datos en Cloud
Datos en Cloud
¿Qué nube deberÃa utilizar en mi proyecto de Big Data?
Arquitecturas
Arquitecturas Lambda
Arquitectura Kappa
Arquitectura Batch
Extracción de información
Llevar tu información al cloud
Demo - Creando nuestro IDE en la nube con Python - Boto3
¿Cómo usar Boto3?
API Gateway
Storage Gateway
Kinesis Data Streams
Configuración de Kinesis Data Streams
Demo - Despegando Kinesis con Cloudformation
Kinesis Firehose
Demo - Configuración de Kinesis Firehose
Reto - Configurando Kinesis Firehose
AWS - MSK
Demo - Despliegue de un clúster con MSK
Transformación de Información
AWS - Glue
Demo - Instalando Apache Zeppelin
Creación del Developer Endpoint
Demo - Conectando nuestro developer Endpoint a nuestro Zeppelin Edpoint
Demo - Creando nuestro primer ETL - Crawling
Demo - Creando nuestro primer ETL - Ejecución
Demo - Creando nuestro primer ETL - Carga
AWS - EMR
Demo - Desplegando nuestro primer clúster con EMR
Demo - Conectándonos a Apache Zeppelin en EMR
Demo- Despliegue automático de EMR con cloudformation
AWS - Lambda
Ejemplos AWS- Lambda
Demo - Creando una lambda para BigData
Carga de Información
AWS - Athena
Demo - Consultando data con Athena
AWS - RedShift
Demo - Creando nuestro primer clúster de RedShift
AWS - Lake Formation
Consumo de información
AWS - ElasticSearch
Demo - Creando nuestro primer clúster de ElasticSearch
AWS - Kibana
AWS - QuickSight
Demo - Visualizando nuestra data con QuickSight
Seguridad, Orquestación y Automatización
Seguridad en los Datos
AWS Macie
Demo - Configurando AWS Macie
Apache Airflow
Demo - Creando nuestro primer clúster en Cloud Composer
Arquitectura de referencia
Clase pública
¿Qué es Big Data?
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Carlos Andrés Zambrano Barrera
Apache Airflow te permite automatizar y orquestar todo tu proyecto de Big Data. Algunas caracterÃsticas importantes:
Aportes 7
Preguntas 3
platzi tiene un curso de airtflow?
Airflow de Zero a Hero por la Comunidad de Data Engineering LATAM
Con este servicio podremos orquestar y automatizar todo un proyecto de BigData.
CaracterÃsticas
Conceptos fundamentales
Otra buena alternativa para implementar Airflow en cloud es Astronomer.
@czam01 me podrias recomendar algun producto de AWS con el cual pueda hacer trigger de mi worklow con Step Functions?
Apache Airflow te permite automatizar y orquestar todo tu proyecto de Big Data. Algunas caracterÃsticas importantes:
Permite crear, monitorear y orquestar flujos de trabajo.
Los pipeline son configurados usando Python.
La estructura básica dentro de Apache Airflow se llama Directed Acyclic Grap (DAG), es un colección de todas las tareas que se requieren correr con sus dependencias.
Apache Airflow bastante potente>
is an open-source workflow management platform. It started at Airbnb in October 2014 as a solution to manage the company’s increasingly complex workflows. Creating Airflow allowed Airbnb to programmatically author and schedule their workflows and monitor them via the built-in Airflow user interface.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?