Primeros pasos en la arquitectura no transaccional

1

Objetivos y presentación del proyecto

2

Aprende qué es un Data Warehouse

3

Bases de datos columnares y arquitectura orientada a optimización de consultas

4

¬ŅC√≥mo funciona AWS Redshift?

Configura tu entorno de trabajo para Redshift

5

Creando nuestro entorno de trabajo en AWS

6

Configura tu primer cluster

7

Consumiendo Redshift: empieza la magia

8

Sentencias SQL en Redshift

C√≥mo dise√Īar tu base de datos para mejorar su desempe√Īo

9

¬ŅQu√© es la compresi√≥n en Redshift?

10

Algoritmos de compresión con Redshift

11

Aplicando algoritmos de compresión

12

An√°lisis de desempe√Īo con diferentes tipos de compresi√≥n

13

Estilos de distribución con Redshift

14

Evaluando los estilos de distribución

15

Llaves de ordenamiento para optimizar nuestras consultas

16

Aplicando ordenamiento de columnas

17

Evaluando algoritmos de ordenamiento

18

Buenas pr√°cticas para dise√Īar tablas en Redshift

19

Tipos de datos en AWS Redshift

20

Reto: mejora el desempe√Īo de tu base de datos

Manipular enormes cantidades de datos

21

Olvídate de los insert, el copy llego para quedarse

22

Cargando archivos tipo JSON

23

El comando copy a fondo

24

Manifiestos y uso de COMPUPDATE para carga con compresión automática

25

Métodos de carga alternativos al comando copy

26

¬ŅC√≥mo ejecutar sentencias UPDATE y DELETE?

27

¬ŅC√≥mo mantener el desempe√Īo de tu base de datos?

28

Estadísticas y limpieza de las tablas

Buenas pr√°cticas para dise√Īar y ejecutar consultas en tu base de datos

29

Agrupamiento, ordenamiento y subqueries

30

¬ŅQu√© es y c√≥mo interpretar un explain plan?

An√°lisis de comportamiento y descarga de datos con Redshift

31

¬ŅC√≥mo descargar datos eficientemente con UNLOAD?

32

Otras tablas √ļtiles de Redshift para entender el comportamiento de nuestros datos

Conclusiones

33

Próximos pasos con AWS Redshift

No tienes acceso a esta clase

¬°Contin√ļa aprendiendo! √önete y comienza a potenciar tu carrera

El comando copy a fondo

23/33
Recursos

Aportes 8

Preguntas 1

Ordenar por:

¬ŅQuieres ver m√°s aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Este es el tipo de cursos que valen mucho la pena, con escenarios reales y bien explicados !

Hasta ahora este curso a sido el mejor de la ruta data science, lo mas tipico es encontrar esos errores en archivos, excelente clase

Les dejo los querys:

CREATE TABLE estudiante (
id int2,
nombre varchar(20),
apellido varchar(20),
edad int2,
fecha_ingreso date
);

SELECT * FROM estudiante;

copy estudiante FROM 's3://mibucketredshift/primer_cargue.csv'
credentials 'aws_iam_role=arn:aws:iam::XXXXXX:role/MiRolRedshift'
region 'us-east-2'
delimiter ';'
ignoreheader 1
ignoreblanklines;

TRUNCATE TABLE estudiante;

copy estudiante FROM 's3://mibucketredshift/primer_cargue.csv'
credentials 'aws_iam_role=arn:aws:iam::XXXXXX:role/MiRolRedshift'
region 'us-east-2'
delimiter ';'
ignoreheader 1
ignoreblanklines
blanksasnull;

copy estudiante FROM 's3://mibucketredshift/segundo_cargue.csv'
credentials 'aws_iam_role=arn:aws:iam::XXXXXX:role/MiRolRedshift'
region 'us-east-2'
delimiter ';'
ignoreheader 1
ignoreblanklines
blanksasnull
dateformat 'mm-dd-yyyy';

Ayer trabajando en un peque√Īo proyecto tuve que cargar la data de un csv a una BD MySQL, y aunque lo hice por medio de un script de python, me enfrent√© con problemas muy similares a los mostrados aqu√≠. La mayor√≠a los resolv√≠ limpiando el dataset.
Muy bien en poner ejercicios con cosas que pasan en la vida real.

excelente clase y Carlos como profesor excelente

Buena clase, algo similar me paso al cargar en Snowflake con los delimitadores, blanks, headers y formatos de fecha, estoy de acuerdo en que estos son los errores típicos (comunes) en las cargas.

Esta clase esta increible!

CREATE TABLE estudiante 
(
id int2,
nombre varchar(20),
apellido varchar(20),
edad int2,
fecha_ingreso date
);

select * FROM estudiante;
truncate table estudiante;

copy estudiante FROM 's3://mybucketredshiftsantiago/primer_cargue.csv'
credentials 'aws_iam_role=arn:aws:iam::XXXX:role/MiRoleRedshift'
region  'us-east-2'
delimiter ';'
ignoreheader 1
ignoreblanklines
blanksasnull
;

select * FROM stl_load_errors;
select * FROM estudiante;

copy estudiante FROM 's3://mybucketredshiftsantiago/segundo_cargue.csv'
credentials 'aws_iam_role=arn:aws:iam::XXXX:role/MiRoleRedshift'
region  'us-east-2'
delimiter ';'
ignoreheader 1
ignoreblanklines
blanksasnull
dateformat 'mm-dd-yyyy'
;

select * FROM estudiante;