Introducción a Apache Spark

2/25
Recursos

Aportes 27

Preguntas 3

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

OLAP: Es un sistema de recuperación de datos y análisis de datos en linea.
OLTP: Es un sistema transaccional en línea y gestiona la modificación de la base de datos


<h1>Resumen de la clase</h1>

Apuntes de la clase

Suelo tomar los mejores comentarios y los agrego a mis apuntes…

Apache Spark es un framework de trabajo para el desarrollo de grandes datos o big data y se preocupa de la velocidad y continuidad del procesamiento de datos, en contraparte de Hadoop que se preocupa por un almacenamiento grande de datos.

Podemos utilizar multiples lenguajes

  • Java
  • Scala (Spark corre nativamente aquí)
  • Python
  • R

¿Que nos es Apache Spark? No es una base de datos

  • OLAP: Es un sistema de recuperación de datos y análisis de datos en linea.

  • OLTP: Es un sistema transaccional en línea y gestiona la modificación de la base de datos.

Spark debe estar conectado a un Data warehouse para poder aprovechar toda su funcionalidad.

Historia de Apache Spark

<h3>Spark VS Hadoop</h3>
  • Spark se enfoca en procesamiento de datos desde la memoria ram.

  • Posee naturalmente un modulo para ML, streaming y grafos.

  • No depende de un sistema de archivos.

Eh Óscar, aguante PROTECO!

A continuación, se describen los siguientes modelos:

OLTP (On-Line Transaction Processing). Se caracteriza por bases de datos transaccionales con una gran cantidad de transacciones cortas (INSERT, DELETE, UPDATE) on-line. Suelen ser BD de sistemas críticos como ERP, CRM…

OLAP (On-line Analytical Processing). Se caracteriza por ser un modelo con volumen de transacciones bajo. Hay dos modelos: multidimensional o tabular y están optimizadas para leer datos que normalmente implican agregaciones y donde el tiempo de respuesta de consulta de datos debe ser rápido (es una medida de efectividad). Normalmente hay información histórica agregada almacenada en esquemas multidimensionales (generalmente esquema en estrella).

Fuente

Apache Spark:

definido como “Motor de procesamiento unificado para procesamiento de Big Data” por el paper premiado por la ACM el 2016.

Spark es un Framework de procesamiento distribuido construido en Scala, basado en la programación funcional.

Todo nace del paper de Google File system y Google Map reduce el cual es la inspiración para el desarrollo de Hadoop por Yahoo! Posterior a ello parte del equipo de Hadoop empiezan el Proyecto Spark en la universidad de Berkeley en el laboratorio AMPLab.

Hadoop es la composición de MapReduce + HDFS (Hadoop Distributed File System)

Spark almacena los estados entre procesamiento en memoria, mientras que MapReduce lo hace en disco.

Framework de desarrollo de bigdata.

Spark se puede utilizar con lenguajes:
Java
Scala
Python
R

Spark es un **framework **(conjunto de tecnologías) de desarrollo de **procesos **de Big Data enfocado en la **velocidad **y **continuidad **del proceso.

Wow las bases de datos OLTP es la enfocada en transacciones, la OLAP es enfocada en analitica.

No entiendo por que Platzi no ha recurrido a REGRABAR o pasar por QA cada clase. No dudo del expertis del profesor pero que se trabe y piense demasiado las cosas me hace dudar y hasta me desespera un poco. NADA EN CONTRA DEL PROFESOR.

Les comparto un fragmento del libro SPARK: The definitive Guide. Bill Chambers y Matei Zaharia (pag. 180):

“Spark está diseñado para funcionar como una base de datos online analytic processing (OLAP), y no una online transaction processing (OLTP) database. Esto significa que no está orientado a un propósito de realizar queries de extrema baja latencia. A pesar de que el soporte para la modificación en el lugar seguramente será algo que surja en el futuro, no es algo que esté disponible actualmente.”
Por ejemplo, transacciones de banco (OLTP) son operaciones que no podemos arriesgarnos a que fallen si implementamos Spark de por medio, ya que podría morir el nodo trabajador de Spark o algún otro fallo.

Comparto notas sobre Apache Spark

  • Qué es y que no es

  • Sobre que lenguajes corre Spark

  • Un comparativo entre Spark y Hadoop

Me encantó la manera detallada en la que explica el profesor, normalmente no hago comentarios sin contenido pero lo tenía que decir, un buen curso de Spark no donde sea se consigue. Felicidades a Platzi y al profesor y mucha suerte de quiénes lo podemos aprender.

Regularmente escojo los cursos como escojo la comida en un nuevo restaurante, cierro los ojos y pongo el dedo al azar, igualmente lo hice acá y cayo en un curso buenísimo. 😃

Spark se preocupa de mantener la información en la RAM

La verdad yo no tenía idea sobre la diferencia entre data lake y data warehouse: https://aws.amazon.com/big-data/datalakes-and-analytics/what-is-a-data-lake/

muy interesante la clase

Marco de trabajo en Spark: Conjunto de tecnologías o desarrollos enfocados al trabajo de datos.

Oscar eres un gran profesor, solo verte 2 minutos y se te nota el proceso de pensamiento, reflexión y pasión por el tema…Gracias!!!

Muy buena introducción

Big Data es un concepto abstracto o una filosofía. Spark y Hadoop traen a la realidad ese concepto.

Ya en trabajado con Spark en un entrenamiento acelerado.
Llego para llevar varcios teóricos y fortalecer lo aprendido.

Buen ritmo y seguimos.

Documentación oficial

Apache Spark is a unified analytics engine for large-scale data processing. It provides high-level APIs in Java, Scala, Python and R, and an optimized engine that supports general execution graphs. It also supports a rich set of higher-level tools including Spark SQL for SQL and structured data processing, MLlib for machine learning, GraphX for graph processing, and Structured Streaming for incremental computation and stream processing.

https://spark.apache.org/docs/latest/

Spark se enfoca en la velocidad de procesamiento y la distribución de datos entre los clusters.

No depende de un sistema de archivos.

segunda clase y ya amo el curso, amo que se expliquen a detalles los conceptos 💚