
Roberto Espinoza
PreguntaQue es Map reduce? Es necesario saber scala para saber hadoop?

Benjamín Casazza
Creo que depende, por que cuando hablamos de spark son otras configuraciones inlcusive se opta mas por el rendimiento y velocidad sin embargo con hadoop, se opta por el almacenamiento masivo por su sistema de hdfs y evidentemente no estan peleados, de cierta forma se pueden llegar a usar ambos dependiendo de las necesidades del proyecto.

Roberto Espinoza
Muchas gracias Benjamin. Quiero finalizar con lo siguiente: Es posible poder emplear en un esquema de datos tanto Apache Spark como Hadoop?

Benjamín Casazza
Hola axelrob! Map reduce como lo vemos en el curso es un algoritmo que permite dividir tareas básicamente, en otras palabras es un proceso dentro de hadoop. Para aclarar lo de Scala es importante saber que Hadoop es todo un entorno de tecnologias y a la vez donde se van guardando nuestros datos conocido como HDFS o Hadoop Distribuited File System donde puedes usar otro tipo de herramientas como scala o python ya sea para leer o manipular esos archivos.