- 1

Certificación AWS Solutions Architect Associate: Fundamentos y Preparación
03:29 - 2

Preparación para certificación AWS Arquitecto de Soluciones
01:47 - 3

Configuración de presupuestos en AWS para controlar costos
08:48 - 4

AWS Well Architected Framework: Los 6 pilares para arquitectura sólida
04:19 quiz de Fundamentos de AWS
Redshift, Athena, Lake formation
Clase 63 de 69 • Curso de AWS Certified Solutions Architect Associate
Contenido del curso
- 10

Servicios de cómputo AWS: EC2, procesadores Graviton y AMIs
12:14 - 11

Opciones de Compra en EC2
04:43 - 12

Lanzamiento de una instancia EC2 desde la consola de AWS
09:11 - 13

Caracteristicas adicionales de EC2
09:25 - 14

Consulta de metadatos de instancia con IMDS v2 en AWS
04:31 - 15

AWS Outpost para ejecutar servicios localmente con latencia baja
05:54 - 16

Despliegue de aplicaciones web con AWS Elastic Beanstalk
19:46 quiz de Servicios de Computo en AWS
- 20

Direccionamiento IP y bloques CIDR para redes AWS
10:21 - 21

Anatomia y funcionamiento de la VPC
06:43 - 22

Configuración de instancias públicas y privadas con NAT Gateway
07:26 - 23

Seguridad de VPC con NACL y grupos de seguridad en AWS
05:35 - 24

Configuración de grupos de seguridad para instancias públicas
03:52 - 25

Conectividad híbrida en AWS: VPC Peering, Transit Gateway y Endpoints
04:37 quiz de Redes en AWS
- 30

Introducción al modulo y niveles de almacenamiento
04:58 - 31

Diferencias entre Instance Store y EBS en AWS
11:06 - 32

EFS & FSx
02:38 - 33

Creación y configuración de volúmenes EBS en AWS
03:55 - 34

S3
15:33 - 35

Configuración de EFS para compartir almacenamiento entre instancias
08:50 - 36

Recuperación de objetos eliminados con versionamiento en AWS S3
03:42 quiz de Almacenamiento en AWS
- 37

Bases de datos relacionales vs no relacionales en AWS
03:30 - 38

DynamoDB
08:09 - 39

Creación y configuración de bases de datos Dynamo en AWS
10:17 - 40

Elasticache y DAX
04:23 - 41

Escalabilidad y alta disponibilidad con AWS RDS y Aurora
09:17 - 42

Configuración de Aurora en AWS RDS para alta disponibilidad
11:18 quiz de Bases de datos en AWS
El Big Data y la analítica avanzada se han convertido en pilares fundamentales para la toma de decisiones en las empresas modernas. AWS ofrece un conjunto robusto de herramientas especializadas para almacenar, procesar y analizar grandes volúmenes de datos. En este artículo exploraremos Amazon Redshift, el servicio estrella para el manejo de Big Data en la nube de AWS, junto con otras soluciones complementarias que permiten implementar estrategias integrales de análisis de datos.
¿Qué es Amazon Redshift y cuáles son sus capacidades?
Amazon Redshift es la solución de data warehouse que ofrece AWS, posicionándose como competencia directa de otros servicios como BigQuery de Google Cloud Platform. Este servicio está específicamente diseñado para almacenar y analizar conjuntos masivos de datos utilizando procesamiento paralelo masivo.
Redshift ofrece dos opciones principales de implementación:
- Clúster Tradicional: Funciona similar a los clústeres en Aurora, basado en nodos donde se configura la capacidad según el tráfico esperado.
- Clúster Serverless: Escala automáticamente según la capacidad requerida, sin necesidad de administrar la infraestructura subyacente.
En la interfaz de Redshift, podemos visualizar métricas importantes como:
- El rendimiento de nuestras consultas
- La capacidad utilizada
- Casos de uso recomendados
Amazon Redshift permite realizar consultas directas utilizando SQL para obtener y analizar datos, lo que facilita el trabajo con grandes volúmenes de información estructurada.
¿Cómo complementar Redshift con otros servicios de análisis de AWS?
Amazon Athena: consultas SQL sobre S3
Amazon Athena es un servicio serverless que permite realizar consultas SQL directamente sobre los datos almacenados en Amazon S3. Esta capacidad resulta extremadamente útil en diversos escenarios:
- Para consultas ad-hoc donde no queremos mover los datos a Redshift.
- Cuando necesitamos verificar información puntual sin utilizar herramientas ETL.
- Para análisis rápidos de datos sin configurar infraestructura adicional.
Athena ofrece la posibilidad de:
- Crear y ejecutar consultas SQL
- Guardar consultas frecuentes para su reutilización
- Analizar casos de uso comunes, como determinar qué usuarios acceden más a ciertas partes de una aplicación mediante el análisis de logs
-- Ejemplo conceptual de consulta en Athena
SELECT user_id, COUNT(*) as access_count
FROM my_app_logs
WHERE section = 'dashboard'
GROUP BY user_id
ORDER BY access_count DESC
LIMIT 10;
AWS Lake Formation: gobernanza para data lakes
Lake Formation es un servicio gestionado por AWS que proporciona gobernanza de datos en data lakes, simplificando la configuración, protección y administración de estos repositorios centralizados de información.
Entre sus principales características encontramos:
- Integración nativa con otros servicios de AWS como Athena, Redshift, EMR, Glue y QuickSight
- Gestión de permisos centralizada
- Catálogo de datos unificado
- Administración sin preocupaciones sobre la infraestructura subyacente
Lake Formation mantiene un catálogo que incluye:
- Bases de datos conectadas
- Tablas disponibles
- Vistas configuradas
- Otros recursos del data lake
La combinación de estos tres servicios (Redshift, Athena y Lake Formation) permite implementar soluciones integrales de big data que cubren desde el almacenamiento y procesamiento hasta el análisis y la gobernanza de datos.
¿Cuáles son los casos de uso adecuados para Amazon Redshift?
Amazon Redshift se destaca particularmente en ciertos escenarios cuando una empresa está migrando aplicaciones locales a la nube de AWS:
-
Análisis de grandes volúmenes de datos estructurados: Redshift es ideal para procesar y analizar conjuntos masivos de datos usando SQL.
-
Business Intelligence y reportes empresariales: Facilita la generación de dashboards y reportes analíticos mediante la integración con herramientas de visualización.
-
Consolidación de datos desde múltiples fuentes: Permite centralizar información proveniente de diversas aplicaciones o sistemas en un único repositorio analítico.
-
Procesamiento analítico en tiempo real: Con sus capacidades de procesamiento paralelo, puede manejar consultas complejas sobre grandes volúmenes de datos rápidamente.
-
Integración con flujos de trabajo de big data: Se complementa perfectamente con otros servicios como EMR, Glue y los demás mencionados anteriormente.
AWS proporciona un ecosistema completo para implementar soluciones de big data, siendo Redshift una pieza fundamental en esta arquitectura. La elección del servicio adecuado dependerá de los requisitos específicos de cada proyecto y de cómo se complementan entre sí las diferentes herramientas disponibles.
Los conocimientos adquiridos sobre Redshift y los servicios complementarios de AWS para análisis de datos te permitirán seleccionar las opciones más adecuadas para implementar soluciones robustas de big data en la nube. ¿Qué casos de uso consideras más relevantes para tu organización? Comparte tu experiencia en los comentarios.