You don't have access to this class

Keep learning! Join and start boosting your career

Aprovecha el precio especial y haz tu profesión a prueba de IA

Antes: $249

Currency
$209
Suscríbete

Termina en:

2 Días
11 Hrs
37 Min
5 Seg

Conclusiones

25/25
Resources

What will we learn about Spark?

Throughout this course, we have explored several essential techniques for working with Apache Spark, one of the most powerful tools in big data analytics. Below, we break down the main learnings and key concepts discussed during the course.

How to install Spark?

Installing Spark correctly is the first step in taking advantage of its capabilities. Installation requires following a few specific steps and configuring the environment to work effectively. It is crucial to make sure that all dependencies are present and that the environment is ready to run Spark applications.

What are RDDs and data frames?

Spark provides fundamental data structures, most notably Resilient Distributed Datasets (RDDs) and data frames. RDDs allow data to be handled in a distributed and resilient manner, which is essential for processing large volumes of information. On the other hand, data frames provide a more simplified and optimized data structure for common operations and queries.

  • RDDs: Ideal for those who need granular control over distributed operations.
  • Data Frames: Offer a more intuitive interface for the execution of SQL-like operations, improving performance and resource optimization.

How to perform replication and partitioning?

Replication and partitioning are fundamental capabilities that enable effective data management in distributed environments. These functions are crucial for:

  1. Improve fault tolerance: By replicating data on different nodes.
  2. Optimize queries: By partitioning data so that operations can be executed in parallel.

These practices are essential to optimize time and resource usage, facing recurring problems in professional life.

Optimization in time and resources

One of the main benefits of using RDDs and data frames is the ability to optimize both time and resources. Spark allows data frames to be registered as SQL tables, which enables more efficient queries. This not only improves response time, but also optimizes the workload on the system.

Why is it important to keep learning?

We encourage you to take the course final exam to assess your understanding of these topics and continue to hone your Spark skills. Sharing your experiences and knowledge gained, either on social media or with colleagues, helps strengthen the community and fosters collaborative learning.

By continuing to explore and apply Spark, you will not only solve complex data management problems, but also advance your career in data analytics and data engineering. Continue to explore and hone your Spark skills!

Contributions 29

Questions 1

Sort by:

Want to see more contributions, questions and answers from the community?

Muy buen curso, excelente contenido! Esperamos más cursos sobre Spark, ya sea con Spark Streaming o de ML. 😄

¡Que gran curso Óscar! Es la primera vez que tomo un curso contigo y me voy más que satisfecho 😃

Gracias por el conocimiento , pero se puede mejorar aun mas …

Confieso que me tomó bastante tiempo completarlo, la curva de dificultad para la configuración inicial para alguien que no viene desde la ingeniería de sistemas o conocimientos afines, es complicada.

Pero aún así persistí gracias a los aportes de la comunidad y la búsqueda externa.

La orientación del curso en su contenido práctico fue excelente!

No olviden unirse a las comunidades de Spark:
México
https://www.meetup.com/apache-spark-mexicocity/
Colombia
https://www.meetup.com/Apache-Spark-Bogota

Excelente curso! Gracias Óscar. A seguir practicando con Spark!

Buen curso Óscar gracias por el conocimiento compartido …

Super Curso, Necesito el curso avanzado de Spark Ya!!! D:!

Muy bueno el curso, espero el próximo.

Excelente curso, espero que en una próxima entrega, se trabaje con Spark orientado al ML.

Para seguir aprendiendo de Spark 😉

Muy buen curso profesor Oscar.
Solo agregaría el que nos proporcionaras los notebooks puesto que había veces que me perdía un poco o yo llamaba diferente los DF y columnas, por lo que me tocó investigar el código mostrado en pantalla y retrabajarlo con el que yo hice.

No había usado la herramienta, me gusto, falta conocerla mas a profundidad. Pinta bien Spark
Gracias Oscar por el curso muy útil, espero verte en cursos mas profundos.

Excelente Curso para empaparse de los Fundamentos.
Gracias

Muchísimas gracias por el curso.

Muy buen curso, recomendado!

Finalmente pude terminar este curso y afianzar varios conocimientos que ya había adquirido previamente, muchas gracias!
Gracias por el conocimiento compartido. Me gustaría que se actualizara el curso incluyendo tecnologías cloud como Azure, AWS, GCP, databricks, streaming de datos, ML...

Gran curso y muy buen profesor, espero más cursos sobre Spark con Scala y Pyspark.

Muy buen curso gracias

Buen curso, me gusto como el profe distribuyo toda la tematica en los diferentes modulos, en un futuro espero verlo de nuevo.

Se deben lanzar nuevos cursos de Spark

Muchas gracias por el curso Oscar. Tus explicaciones, ejemplos y conceptos fueron muy claros!. Espero que platzi integre mas cursos de profundizacion en spark como por ejemplo spark windows functions o configuracion de clusters.

Buen curso, bien practico! Gracias Óscar! 😃

Un curso muy practico y desafiante, sobre todo al momento de la instalación, lo cual solucioné usando ambientes virtuales y notebooks, espero un próximo curso de spark en Platzi!, Gracias Oscar.

Gran curso, al principio me costo trabajo pero fue entendiendo que me faltaban conocimiento en otras cosas y primero fui a resolver mis dudas, espero con ansías otro curso de Spark 😃

Me gustó bastante el curso, un poco lento para mi gusto pero creo que se debe a que hay mucho por aprender.

Estimado Oscar, muchas gracias por el buen curso. Me gustaría posteriormente tomar un curso de Spark que contenga "Machine Learning Library (MLlib) ". Felicidades y Saludos.

Gracias. El contenido me ha servido para repasar los conceptos que ya tenía y que vengo aplicando con Spark.