Platzi
Platzi

LA EDUCACIÓN ES UN REGALO ¡ACCEDE AL PRECIO ESPECIAL!

Antes: $249
$149
Currency
Antes: $249
Ahorras: $100
COMIENZA AHORA
Termina en: 17D : 16H : 35M : 41S
Curso de Hadoop

Curso de Hadoop

Benjamín Casazza

Benjamín Casazza

Usar Hadoop en lo profesional

3/22
Recursos

Aportes 4

Preguntas 2

Ordenar por:

Los aportes, preguntas y respuestas son vitales para aprender en comunidad. Regístrate o inicia sesión para participar.

Unos apuntes que tome de la clase:
[email protected]: Es un proyecto en el que se estaba buscando explorar la vida en otros planetas (1999). Se empieza a hablar de usar la computadoras de manera modular (cluster de computadoras).
¿Cómo es Hadoop en el mundo real?
Se puede obtener datos de diferentes fuentes (RRSS, compras, …). Hadoop nos puede ayudar a analizar toda esta información.

Resumen:

■■■■■■■

Los primeros esfuerzos conocidos para realizar cómputo modular o cómputo distribuido en este caso para el procesamiento de señales de radiofrecuencias, el proyecto llamado [email protected] es parte de un esfuerzo el SETI (Search for Extraterrestrial Life), organización que hoy en día siguen activos en su misión de encontrar vida extraterrestre, mediante diferentes aproximaciones, como el monitoreo de señales electromagnéticas para estudiar signos de civilizaciones.


El cómputo distribuido está muy involucrado en la ola creciente de datos, cada día se producen pettabytes de data que puede volverse información.

Hadoop entra como un set de herramientas para poder sacarle provecho a este fenómeno del BigData. Dentro del ciclo de la ciencia de datos, estas herramientas están en función de brindar data a otras partes del ciclo.

  • Arquitecto de datos, modela a nivel macro como fluye la data, en qué sistemas de persistencia se almacenan y cómo, en qué datalake o datawarehouse se almacenará la data en función del contexto y necesidades del negocio.
  • Ingenieros de datos se encargan de las ETL, EL y demás procesos de tranformación, carga y minerías.
  • Analistas de datos consumen data preprocesada ,es decir “limpia”, curada y desnormalizada en OLAPS.
  • Científico de datos estudiaría la data mediante experimentación para responder preguntas de negocio.

Hadoop Ecosystem

El proyecto [email protected], desarrollado en 1999 por la Universidad de Berklee, le permitía a diferentes usuarios conectarse simultáneamente para poder procesar distintas ondas de radio. Fue gracias a estos que se empezaron a desarrollar los clústeres de procesamiento distribuido o la computación modular.