Primeros pasos en la arquitectura no transaccional

1

Objetivos y presentación del proyecto

2

Aprende qué es un Data Warehouse

3

Bases de datos columnares y arquitectura orientada a optimización de consultas

4

¿Cómo funciona AWS Redshift?

Configura tu entorno de trabajo para Redshift

5

Creando nuestro entorno de trabajo en AWS

6

Configura tu primer cluster

7

Consumiendo Redshift: empieza la magia

8

Sentencias SQL en Redshift

Cómo diseñar tu base de datos para mejorar su desempeño

9

¿Qué es la compresión en Redshift?

10

Algoritmos de compresión con Redshift

11

Aplicando algoritmos de compresión

12

Análisis de desempeño con diferentes tipos de compresión

13

Estilos de distribución con Redshift

14

Evaluando los estilos de distribución

15

Llaves de ordenamiento para optimizar nuestras consultas

16

Aplicando ordenamiento de columnas

17

Evaluando algoritmos de ordenamiento

18

Buenas prácticas para diseñar tablas en Redshift

19

Tipos de datos en AWS Redshift

20

Reto: mejora el desempeño de tu base de datos

Manipular enormes cantidades de datos

21

Olvídate de los insert, el copy llego para quedarse

22

Cargando archivos tipo JSON

23

El comando copy a fondo

24

Manifiestos y uso de COMPUPDATE para carga con compresión automática

25

Métodos de carga alternativos al comando copy

26

¿Cómo ejecutar sentencias UPDATE y DELETE?

27

¿Cómo mantener el desempeño de tu base de datos?

28

Estadísticas y limpieza de las tablas

Buenas prácticas para diseñar y ejecutar consultas en tu base de datos

29

Agrupamiento, ordenamiento y subqueries

30

¿Qué es y cómo interpretar un explain plan?

Análisis de comportamiento y descarga de datos con Redshift

31

¿Cómo descargar datos eficientemente con UNLOAD?

32

Otras tablas útiles de Redshift para entender el comportamiento de nuestros datos

Conclusiones

33

Próximos pasos con AWS Redshift

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Convierte tus certificados en títulos universitarios en USA

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

18 Días
20 Hrs
32 Min
11 Seg

Próximos pasos con AWS Redshift

33/33
Recursos

Aportes 29

Preguntas 3

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Excelente curso!

Mi mundo se acaba de sacudir por completo dado a que vengo de desarrollar en PLSQL en Oracle, un DBMS relacional. Se me han ocurrido un sin fin de ideas y proyectos con los conocimientos adquiridos. Muchísimas gracias!

Es importante eliminar el cluster cuando se deje de usar Redshfit , sino AWS te cobrara despues de sobrepasar la cantidad de horas gratuitas.
En este link estan los pasos :
https://docs.aws.amazon.com/es_es/redshift/latest/gsg/rs-gsg-clean-up-tasks.html

Me gustaría un curso de Snowflake.

Muy buen curso, bien explicado y fácil de entender.

Me encantaría que abarcáramos los otros servicios de AWS relacionados con datos de esta forma como EMR, Glue, Athena, Kinesis, o los servicios de visualización y consumo de datos igual de AWS.

Saludos y gracias.

A pesar que disfruté mucho el curso y el profesor se ve que es un crack, siento que hay un cierto vacío maluco en la ruta de data Science en cuanto a bases de datos.
Pasamos de dos cursos prácticamente idénticos manejando una base de datos de 10’s-100’s de registros transaccionales de una tienda de libros (gateando) a perder los estribos con 60M’s de registros en Ohio (triathlon).
Definitivamente revisaré este curso cuando retome la ruta de bases de datos.

Que buen curso, me gustó muchísimo.
Inicialmente lo he recibido porque en mi trabajo vamos a empezar a utilizar RedShift, así que también cree este Notion con todas las cosas útiles que aprendí en el curso, para compartir con mis compañeros de trabajo, pero les dejo el acceso también a todos para que se apoyen en él, y pueden dejar comentarios para ir agregando y mejorando el mismo.

Red Shift Cheat Sheet

Saludos

Muy buen curso !! 👌

Muy buen curso y exelente profesor!! Espero verlo en proximos cursos.

curso de 10 Estrellas, estoy la ruta de la escuela de data Science, y sin temor a equivocarme es una de los cursos mejor elaborados y desarrollados, en mi caso me mostrar un camino claro para empezar agregar valor productivo a algunos los proyectos que he ido contrayendo en mi aprendizaje. me queda la duda de como haria para hacer algún tipo de deployment o si existe alguna forma de mostrar en un portafolio proyectos que hagan uso de redshift, a manera de algún tipos de repositorio o algo similar

Este curso es excepcional. Ofrece un equilibrio perfecto entre la presentación de conceptos clave de manera concisa y su aplicación práctica. En mi opinión, es el mejor de todos los cursos de AWS disponibles en Platzi. Es un ejemplo de cómo deberían ser todos los cursos en esta plataforma. ¡Altamente recomendado

Muchas gracias por el curso profesor. Explica muy bien y fue muy ameno, aprendí mucho.

Excelente curso Carlos,
Muy buen material, bien explicado y práctico. Me quedo con el COPY, las buenas prácticas en creación de tablas y los comandos para el mantenimiento del performance de la base de datos en el tiempo.

Muy bueno el curso y ni se diga el profesor, con muchos ejercicios y a pesar de que fue largo y algunos videos son extensos no aburre para nada.

Increible curso, puede durar 20 minutos una lección pero es entretenido y no me duermo ni nada, la verdad es genial.

Increíble curso. Es mi primer acercamiento a Redshift y no sé si se tocaron la mayoría de temas de la herramienta pero todo lo que se trabajó estuvo excelente y con buena profundidad, sobre todo por los ejemplos y ejercicios. Lo único que me gustaría que se agregara es el ingestar datos desde otros servicios de AWS, porque el copy es fantástico pero en una organización que ya esté trabajando de lleno con AWS la data puede venir de muchas otras fuentes aparte de S3; me quedé con ganas de ver esos ejemplos y si también se tienen las mismas opciones como en copy para optimizar. De los mejores cursos que he tomado en Platzi y me gustaría que con esa misma profundidad se realizaran cursos de otras herramientas de AWS, como Lambda, API Gateway, etc, y no introducción como en el resto de la ruta de AWS.

Te agradezco por este curso, como ingeniero industrial no ha sido muy fácil ciertos aspectos de ciencias computacionales, pero cierras con broche de oro lo que nos ofrece platzi para DBs, me gustaría que a futuro tengamos retos de consultas y manejos de DBs usando todas las herramientas que nos han compartido y poder incluir mucho más.

Que genial curso!

muy buen curso, lastima que no se pueda practicar, no quiero correr el riesgo con amazon que terminen cargando costos a la tarjeta, por tanto volumen de información. aunque el profesor dice que no genera costos, pero mejor no correr riesgos.

EXCELENTE CURSO!!! que otros curso enseña ???

Me gusto el cursos, y lo bien explicado por Carlos.

Que curso tan genial,
me costo seguirle el paso por lo que esto me es tan nuevo, pero eso hace que lo allá disfrutado aun mas,
Queda en mis cursos de consulta frecuente, y de esos que te abren a nuevos mundos
Gracias totales Carlos

Excelente curso y Carlos como Instructor demasiado bueno aprendi muchisimo

Excelente Curso!

Felicitaciones, excelente curso!!!

exxamen sannsweers **Resumen**1.¿Qué define mejor a un Data Warehouse?Un repositorio unificado de datos con un propósito analítico.2.¿Qué tipo de tablas contiene usualmente un modelo orientado a analítica en un Data Warehouse?Tablas de hechos y tablas de dimensiones.3.¿Qué objetivo tiene una base de datos orientada a filas?La transaccionalidad y en la lectura/escritura rápida de registros únicos en una tabla.4.¿Qué objetivo tiene una base de datos orientada a columnas?Procesamiento óptimo de consultas complejas en grandes volúmenes de datos.5.¿En qué consiste un cluster?Dos o más nodos interconectados procesando tareas en paralelo.6.¿Cuánto espacio ocupa un bloque de datos en Redshift?1MB7.Redshift está basado en la arquitectura de:PostgreSQL8.El comando para obtener la compresión recomendada por Redshift a una tabla es:analyze compression9.El objetivo de comprimir columnas en Redshift es:Reducir el número de bloques de datos que ocupa, para incrementar la velocidad de respuesta.10.Consigue comprimir los datos evaluando la diferencia entre un dato y el siguiente dato en la columna.Mostly11.Consigue comprimir los datos creando otra entidad en donde a cada valor de la columna se le asigna un índice único.Diccionario de bytes12.Consigue comprimir los datos agrupando filas con el mismo dato consecutivo en una columna.Run-length13.¿Cuáles son los tipos de distribución en Redshift? all, key, even. 14.Al aplicar un estilo de distribución en Redshift de busca:Los datos deben estar distribuidos equitativamente y con las columnas "join" en los mismos slices para incrementar la velocidad de respuesta.15.La distribución Key distribuye los datos en los nodos basados en una columna especifica:Verdadero16.Distribuye los datos en los nodos usando round robin.AllREPASAR CLASE17.El objetivo de las llaves de ordenamiento es:Reducir tiempos de respuesta en la consultas.18.Una de las desventajas del ordenamiento intercalado (Interleaved) es:La carga de datos es más lenta.19.Una de las desventajas del ordenamiento compuesto (Compound) es:La consulta pierde efectividad si se filtran los datos por columnas secundarias de la llave.20.Los bloques de datos en Redshift guardan el valor mínimo y máximo que contienen, por esta razón usar llaves de ordenamiento permite descartar rápidamente bloques de datos fuera de cláusula WHERE indicada e incrementar la velocidad de respuesta:Verdadero21.¿Qué función cumple el parámetro COMPUPDATE en el copy?Crea automáticamente la compresión de columnas recomendada por Redshift a una tabla previamente vacía.22.El comando copy realizar el cargue en la tabla usando procesamiento masivo en paralelo (MPP), por esta razón es muy efectivo.Verdadero23.Con este parámetro puedes indicar cual es el caracter de separación en tu archivo a cargar en un copy.delimiter24.¿Qué se logra con el comando Analyze?Actualizar la metadata estadística buscando que el planificador de consultar conozca cómo resolver estas consultas de la mejor forma.25.El comando Vacuum no indispone la tabla para actualización de datos.Falso26.¿Qué puedo conseguir aplicando Vacuum a una tabla?Recuperar espacio, ordenar correctamente las columnas en una tabla luego de un cargue.27.¿Qué función tiene "explain" en Redshift?Retorna el plan de ejecución y costo de una consulta.28.El comando explain retorna el costo de una consulta de la siguiente manera valor1..valor2 a modo de ejemplo 122..234432, ¿qué significan estos valores respectivamente?Ninguna de las respuestas.REPASAR CLASE29.El comando unload es igual de óptimo que resolver una consulta en el editor SQL, con la única diferencia que guarda los datos en S3.Falso30.La siguiente instrucción ejecuta una consulta y envía los resultados a S3 en archivos de 100 mb, separador (;), compresión BZIP2 y encabezado.`unload ('select * from unload_test') to 's3://loadfilesredshift/unload/unload_test_other_' credentials 'aws_iam_role=aws_arn' delimiter ';' HEADER BZIP2 MAXFILESIZE 100 mb`

Muy buen curso, cargado de información muy completa, de igual manera el profe estuvo excelente, buen uso del tiempo y el desarrollo del mismo. 🤠💚

Profe Carlos, gran curso, muchas gracias por tu esfuerzo y el gran curso que brindaste, por favor en el futuro mas cursos de diseño de datawarehouses, data lakes y etl’s.
Gracias

Excelente Curso, de todos los cursos que he visto en la plataforma me quedo con este (hablo de informática), lo único que recomiento que se tienen que ir actualizando, porque la plataforma va cambiando y añadiendo mas servicios.
Lo tengo que ver otra vez para afianzar mejor los conceptos, el ppt me podrias pasar?

Profe muchisimas gracias me pareció un curso muy excelente, se notó todo el esfuerzo y dedicación que le metiste a cada clase.

Cada práctica todo todo me la gocé un gusto y espero seguir haciendo tus cursos