Fundamentos de Data Warehouse, DataMart, Data Lake, Data Lakehouse y BI
Data Warehouse y Data Lake: Gestión Inteligente de Datos
Conceptos de Negocios y Stakeholders
¿Qué es Data Warehouse?
Arquitectura de un Data Warehouse
Modelos de Datos en Data Warehouse
Introducción al Modelo de Entidad Relacional (ER)
¿Qué es Data Lake?
ETL, ELT y ETLT
Data Lakehouse
Herramientas y Plataformas de Data Warehouse y Data Lake
Business Intelligence (BI) y Niveles de Analítica de Datos
Bases de Datos OLTP y OLAP
Quiz: Fundamentos de Data Warehouse, DataMart, Data Lake, Data Lakehouse y BI
Redshift de AWS – Proyecto Warehouse
¿Cómo crear tu cuenta en AWS?
¿Qué es Redshift?
Conociendo Redshit
Creando mi DataWarehouse en Redshift
Creando mi DataWarehouse en Redshift – Parte 2
Creando mi DataWarehouse en Redshift – Parte 3
Quiz: Redshift de AWS – Proyecto Warehouse
S3 en AWS – Proyecto Datalake
Arquitectura Medallón
Creando mi Datalake en S3 - Parte 1
Creando mi Datalake en S3 – Parte 2
Creando mi Datalake en S3 – Parte 3
Data Warehouse vs Data Lake
Quiz: S3 en AWS – Proyecto Datalake
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Comenzar con la implementación de una arquitectura de datos, como Medageon, en AWS S3 puede parecer una tarea desafiante, pero con los pasos adecuados, es posible crear una estructura eficiente y funcional. En este proceso, configuraremos capas de bronce, plata y oro, esenciales para la gestión de datos. También exploraremos la carga de datos manual y remota, utilizando diferentes técnicas y herramientas ofrecidas por AWS.
Nuestra primera tarea es crear una estructura dentro de un bucket en S3 que representará nuestras distintas capas de almacenamiento: bronce, plata y oro. Vamos a guiarte en la configuración de estas capas dentro del bucket.
Crear carpetas en el bucket:
Con estos pasos sencillos, ya cuentas con tu arquitectura estructurada en S3.
Ahora que hemos configurado las capas, el siguiente paso es aprender a cargar datos. Comenzaremos con una carga manual, incorporando archivos de diferentes formatos para demostrar la versatilidad de S3 con distintos tipos de datos.
2. Ejemplos de carga de datos:
Para cada uno de estos archivos, asegúrate de validar el destino y las configuraciones de permisos antes de presionar "upload".
La carga manual es útil, pero para optimizar la gestión de datos, una carga remota es más eficiente. Utilizaremos AWS Cloud9, un servicio que proporciona un IDE completo en la nube, para facilitar esta tarea.
Una vez que el entorno está listo, abre Cloud9 IDE y crea un directorio llamado "dataset".
Dentro de este directorio, carga un archivo de ejemplo, como "Spotify_tracks.csv".
Usa el terminal para copiarlo al bucket S3 con el comando:
aws s3 cp Spotify_tracks.csv s3://nombre_del_bucket/bronce
Este proceso confirma que el archivo se ha cargado correctamente, validándose al regresar al bucket en S3.
Estos pasos subrayan cómo AWS S3 y servicios adicionales como Cloud9 pueden integrarse para realizar operaciones de manejo de datos de varios tipos, demostrando la versatilidad de esta plataforma en la gestión avanzada de datos. ¡Continúa explorando y aprovechando estas herramientas en tu arquitectura de datos!
Aportes 4
Preguntas 1
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?