CursosEmpresasBlogLiveConfPrecios

¿Para qué sirve airflow?

Clase 2 de 29 • Curso de Fundamentos de Apache Airflow

Clase anteriorSiguiente clase

Contenido del curso

Introducción a Apache Airflow
  • 1
    Introducción al curso

    Introducción al curso

    03:05
  • 2
    ¿Para qué sirve airflow?

    ¿Para qué sirve airflow?

    05:34
  • 3
    ¿Por qué usar airflow?

    ¿Por qué usar airflow?

    02:56
  • 4
    Resumen módulo 1

    Resumen módulo 1

    00:47
Conceptos básicos
  • 5
    DAG

    DAG

    02:33
  • 6
    Tasks y Operators

    Tasks y Operators

    02:13
  • 7
    Scheduler

    Scheduler

    02:04
Instalación y configuración
  • 8
    Instalación de Apache Airflow usando Docker

    Instalación de Apache Airflow usando Docker

    03:14
  • 9
    Posibles configuraciones

    Posibles configuraciones

    04:34
  • 10
    Variables y conexiones

    Variables y conexiones

    04:15
Implementando un DAG
  • 11
    Implementando un DAG

    Implementando un DAG

    05:57
  • 12
    Bash Operator

    Bash Operator

    03:47
  • 13
    Python Operator

    Python Operator

    04:20
  • 14
    Definiendo dependencias entre tareas

    Definiendo dependencias entre tareas

    06:23
  • 15
    Custom Operator

    Custom Operator

    06:40
Orquestar y monitorizar procesos
  • 16
    Orquestando un DAG I

    Orquestando un DAG I

    10:31
  • 17
    Orquestando un DAG II

    Orquestando un DAG II

    06:32
  • 18
    Monitoring

    Monitoring

    07:22
  • 19
    Task Actions

    Task Actions

    13:13
  • 20
    Trigger Rules

    Trigger Rules

    14:18
Sensores
  • 21
    ¿Qué son los sensores?

    ¿Qué son los sensores?

    01:16
  • 22
    ExternalTaskSensor

    ExternalTaskSensor

    06:16
  • 23
    FileSensor

    FileSensor

    07:02
Templates con Jinja
  • 24
    ¿Qué son los templates con Jinja?

    ¿Qué son los templates con Jinja?

    06:48
XComs
  • 25
    ¿Qué son los Xcoms?

    ¿Qué son los Xcoms?

    06:17
BranchPythonOperator
  • 26
    BranchPythonOperator

    BranchPythonOperator

    05:40
Proyecto
  • 27
    Definición del proyecto

    Definición del proyecto

    03:41
Cierre del curso
  • 28
    Cierre del curso

    Cierre del curso

    01:35
  • 29

    Comparte tu proyecto de Platzi explora el espacio con Airflow y certifícate

    00:00
    Andres Insuasty

    Andres Insuasty

    student•
    hace 3 años

    Airflow es un orquestador, asi que se encarga de decir como y cuando hacer las cosas, pero otros deben ser los que ejecuten.

    Airflow es como el señor que tiene la batuta en una orquesta, el nunca toca un instrumento pero es el que dirije a toda la gente para que haga mejor en lo que cada uno es experto.

    Leonardo Carvallo

    Leonardo Carvallo

    student•
    hace 3 años

    Un ejemplo simple de entender es el siguiente, si en medio de la tarea estas procesando un dataframe de 5 millones de registros, esto va a ocupar espacio en memoria y cpu de procesamiento de la maquina que orquesta ese y todos los demas dags de tu modelo de negocio (que tambien pueden estar procesando millones de datos al mismo tiempo), por lo que se puede comprometer el performance del resto de las tareas, llegando a demorar las ejecuciones mas de lo normal o incluso colapsando las ejecuciones.

      Eric Bellet

      Eric Bellet

      teacher•
      hace 3 años

      Excelente ejemplo, gracias por la aportación.

    César Vega

    César Vega

    student•
    hace 3 años

    Dentro de las posibilidades por las cuales no se debe ejecutar en la misma máquina de airflow, considero

    1. La alta computación o alta demanda de recursos de las actividades afectaría el funcionamiento propio de airflow y esto afectaría el wordflow imposibilitando la continuidad a las siguientes actividades.

    2. Los actividades programadas pueden necesitar requerimientos especiales para funcionar en aspectos de hardware, software, networking, entre otras; que en muchos casos no se pueden suministrar en un solo equipo.

    3. Una alta disponibilidad implica que la arquitectura de orquestación y ejecución sean en dos entornos diferentes, para la segregación de tareas.

    Freddy Norberto Montañez Gordillo

    Freddy Norberto Montañez Gordillo

    student•
    hace 3 años

    En mi opinión el performance en data es crucial por lo que tener todos los procesos en una misma máquina puede hacerla o muy costosa o ineficiente. Siempre es bueno distribuir las tareas complejas en diferentes máquinas para mejor eficiencia y menores costos en determinados casos.

      Eric Bellet

      Eric Bellet

      teacher•
      hace 3 años

      Exactamente Freddy

    Rafael Alejandro Belalcázar Burbano

    Rafael Alejandro Belalcázar Burbano

    student•
    hace 3 años

    Tener tareas demasiado pesadas a nivel de procesamiento en la misma maquina donde está corriendo el servidor de airflow puede causar problemas de performance. Por ejemplo, leer una fuente con millones de registros puede copar la memoria y provocar una caída del servidor o falla en otros DAGs que no pueden ser ejecutados por falta de recursos.

    Gian HM

    Gian HM

    student•
    hace 2 años

    ### 1.2. ¿Para qué sirve airflow? 1. **Programación de tareas:** Permite definir flujos de trabajo como DAGs (Grafos Acíclicos Dirigidos), donde se pueden especificar tareas individuales y sus dependencias. 2. **Ejecución escalable:** Airflow puede ejecutar múltiples flujos de trabajo en paralelo y escalar para manejar grandes volúmenes de trabajo. 3. **Monitoreo y registro:** Proporciona una interfaz de usuario web que permite monitorear el progreso de los flujos de trabajo, ver el historial de ejecución y acceder a registros detallados de cada tarea. 4. **Reutilización de código y modularidad:** Permite reutilizar código y definir tareas como funciones Python, lo que facilita la modularidad y la reutilización en diferentes flujos de trabajo. 5. **Integración con herramientas y servicios:** Airflow se integra con una variedad de herramientas y servicios populares, como bases de datos, sistemas de almacenamiento, servicios en la nube, etc.

    CRISTIAN CAMILO TIRADO CIFUENTES

    CRISTIAN CAMILO TIRADO CIFUENTES

    student•
    hace 3 años

    Considero que puede ser el tipo de máquina en términos del sistema operativo, capacidades y demás ya que puede hacer que airflow se tome mucho tiempo en eso y esta tarea la puede brindar un servicio de EC2. Saludos profe.

    Guillermo Pedro Cuneo

    Guillermo Pedro Cuneo

    student•
    hace 2 años

    Habitualmente buscaremos ingerir grandes volumenes de datos de distintas fuentes de origenes que deberemos limpiar, normalizar, hacer calculos, agregaciones y cruce entre los distintos datos obtenidos, todos estos procesos corriendo en una misma maquina es muy provable que nos topemos con limites de recursos como ser CPU y memoria ram, y en este punto el escalamiento vertical no solo seria costoso a nivel monetario tambien seria costoso a nivel corte de servicio, es por ello que es mejor manejar este procesamiento como tareas en otros equipos o nodos que se dediquen pura y exclusivamente para esto, lo cuales incluso teniendo un pipline correctamente programado los podriamos lanzar a demanda ahorrando costos o billing en recursos de infraestructura ociosa.

    Mario Alexander Vargas Celis

    Mario Alexander Vargas Celis

    student•
    hace un año

    Apache Airflow es una plataforma de código abierto diseñada para orquestar y programar flujos de trabajo (workflows) en la gestión de datos y tareas repetitivas de manera eficiente y escalable. A continuación, te explico sus usos principales:

    ¿Para qué sirve Apache Airflow?

    1. Automatización de flujos de trabajo

    Airflow permite definir, programar y monitorear flujos de trabajo que constan de tareas interdependientes. Por ejemplo:

    • Extraer datos de una fuente (ETL).
    • Procesar esos datos.
    • Almacenar los datos procesados en un Data Warehouse o Data Lake.
    • Generar reportes o visualizaciones.

    2. Gestión de dependencias

    Los flujos de trabajo en Airflow están representados como gráficos acíclicos dirigidos (DAGs), lo que permite definir relaciones y dependencias entre tareas. Esto asegura que:

    • Las tareas se ejecuten en el orden correcto.
    • Las fallas puedan ser gestionadas de manera efectiva sin afectar todo el flujo.

    3. Programación de tareas

    Airflow permite programar la ejecución de tareas de manera flexible, desde una vez al día hasta horarios más complejos, como "el último día laborable de cada mes".

    4. Monitorización y re-ejecución

    Airflow ofrece una interfaz gráfica (UI) para monitorear y depurar los flujos:

    • Ver el estado actual de las tareas (en progreso, exitoso, fallido).
    • Volver a ejecutar tareas que fallaron sin necesidad de repetir todo el flujo.

    5. Integración con múltiples herramientas

    Airflow puede interactuar con diversas tecnologías y plataformas gracias a sus operadores predefinidos y la capacidad de personalizarlos:

    • Bases de datos (PostgreSQL, MySQL, etc.).
    • Herramientas en la nube (AWS, Google Cloud, Azure).
    • APIs personalizadas.
    • Sistemas de procesamiento como Spark o Hadoop.

    6. Escalabilidad

    Al ejecutarse en arquitecturas distribuidas, Airflow puede manejar grandes volúmenes de tareas en entornos de producción con múltiples nodos.

    Casos de uso típicos

    1. ETL (Extracción, Transformación y Carga) Orquestar procesos que extraen datos, los transforman y los cargan en sistemas de almacenamiento centralizado.
    2. Pipeline de Machine Learning Automatizar pasos como preprocesamiento, entrenamiento, evaluación y despliegue de modelos.
    3. Gestión de datos en Data Warehousing Planificar cargas regulares o incrementales de datos al Data Warehouse.
    4. Procesos empresariales repetitivos Automatizar reportes financieros, reconciliaciones de cuentas, entre otros.

    Ventajas de Apache Airflow

    • Código definido en Python, lo que lo hace flexible y personalizable.
    • Soporte para tareas dinámicas y complejas.
    • Comunidad activa y ecosistema creciente.
    • UI intuitiva para monitorear flujos.

    En resumen, Apache Airflow sirve para orquestar y gestionar flujos de trabajo complejos de manera programada, monitoreable y escalable, siendo una herramienta clave en proyectos de analítica, Big Data y desarrollo de pipelines.

    Elizabeth Ketty Lirion Carbajal

    Elizabeth Ketty Lirion Carbajal

    student•
    hace 10 meses

    Cuellos de Botella en Recursos

    Si ejecutas Airflow, los scripts y la base de datos en la misma máquina, los procesos pueden competir por CPU, RAM y disco, afectando el rendimiento y la estabilidad del sistema.

    Angel Rosendo Mendoza Rodríguez

    Angel Rosendo Mendoza Rodríguez

    student•
    hace 2 años

    Sera reiterativo, pero la función principal de Airflow es la orquestación del flujo de tareas y las tareas se delegan segun su naturaleza. Lo anterior me recuerda mucho varias herramientas que siempre hay un nodo controlador o master como en spak, es una arquitectura muy común que he visto en varias herramientas y tiene sentido.

    Gian HM

    Gian HM

    student•
    hace 2 años
    ### 1.2. ¿Para qué sirve airflow? 1. **Programación de tareas:** Permite definir flujos de trabajo como DAGs (Grafos Acíclicos Dirigidos), donde se pueden especificar tareas individuales y sus dependencias. 2. **Ejecución escalable:** Airflow puede ejecutar múltiples flujos de trabajo en paralelo y escalar para manejar grandes volúmenes de trabajo. 3. **Monitoreo y registro:** Proporciona una interfaz de usuario web que permite monitorear el progreso de los flujos de trabajo, ver el historial de ejecución y acceder a registros detallados de cada tarea. 4. **Reutilización de código y modularidad:** Permite reutilizar código y definir tareas como funciones Python, lo que facilita la modularidad y la reutilización en diferentes flujos de trabajo. 5. **Integración con herramientas y servicios:** Airflow se integra con una variedad de herramientas y servicios populares, como bases de datos, sistemas de almacenamiento, servicios en la nube, etc. ```### 1.2. ¿Para qué sirve airflow? 1\. \*\*Programación de tareas:\*\* Permite definir flujos de trabajo como DAGs (Grafos Acíclicos Dirigidos), donde se pueden especificar tareas individuales y sus dependencias. 2\. \*\*Ejecución escalable:\*\* Airflow puede ejecutar múltiples flujos de trabajo en paralelo y escalar para manejar grandes volúmenes de trabajo. 3\. \*\*Monitoreo y registro:\*\* Proporciona una interfaz de usuario web que permite monitorear el progreso de los flujos de trabajo, ver el historial de ejecución y acceder a registros detallados de cada tarea. 4\. \*\*Reutilización de código y modularidad:\*\* Permite reutilizar código y definir tareas como funciones Python, lo que facilita la modularidad y la reutilización en diferentes flujos de trabajo. 5\. \*\*Integración con herramientas y servicios:\*\* Airflow se integra con una variedad de herramientas y servicios populares, como bases de datos, sistemas de almacenamiento, servicios en la nube, etc.
    Andrés Marín Sánchez

    Andrés Marín Sánchez

    student•
    hace 8 meses

    Entiendo que esta herramienta sustituye lo que uno normalmente desarrolla para SSIS en Visual Studio Data Tools, verdad?

      Eric Bellet

      Eric Bellet

      teacher•
      hace 8 meses

      Sí, correcto

      Eric Bellet

      Eric Bellet

      teacher•
      hace 5 meses

      Correcto

    Alfredo Olmedo

    Alfredo Olmedo

    student•
    hace 9 meses

    Es un Kubernetes de Data Science.

    Mientras que Kubernetes es el estándar de facto para la orquestación de contenedores en el mundo del desarrollo y operaciones, Apache Airflow desempeña un rol similar en el ámbito de la ciencia de datos y la ingeniería de datos.

    Paralelismos clave:

    • Orquestación: Kubernetes gestiona y orquesta contenedores en entornos distribuidos, mientras que Apache Airflow se centra en orquestar flujos de trabajo y pipelines de datos.
    • Automatización y Escalabilidad: Ambos permiten automatizar tareas y escalar procesos según la demanda, resolviendo problemas de coordinación en entornos complejos.
    • Ecosistema: Al igual que Kubernetes se ha convertido en el núcleo alrededor del cual giran herramientas como Helm, Istio o Prometheus, Airflow es el corazón de ecosistemas relacionados con la ingesta, transformación y almacenamiento de datos.

    Sin embargo, hay diferencias importantes. Kubernetes opera a un nivel más infraestructural, gestionando servidores y recursos computacionales, mientras que Airflow se concentra más en tareas específicas de procesamiento y flujo de datos.

    Natalia Villegas

    Natalia Villegas

    student•
    hace 2 años

    Ejecutar tareas en máquinas separadas de Airflow mejora la eficiencia, escalabilidad, seguridad y mantenimiento del sistema.

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads