Platzi
Platzi

¡Invierte en ti y celebremos! Adquiere un plan Expert o Expert+ a precio especial.

Antes: $349
$259
Currency
Antes: $349
Ahorras: $90
COMIENZA AHORA
Termina en: 9D : 3H : 58M : 38S

Debes iniciar sesión

Para ver esta clase crea una cuenta sin costo o inicia sesión

Programación y Data Science

2/35

La ciencia de datos es muy útil para cualquier área laboral. Actualmente estamos viviendo la cuarta revolución industrial gracias a la masiva cantidad de datos que generamos día a día, las empresas con estos datos buscan satisfacer de mejor forma nuestras necesidades, aquí nace el Big Data.

Big Data se compone de tres componentes claves:

  • Volumen: tiene una cantidad de datos mucho mayor a la soportada dentro de un Excel.
  • Velocidad: mayor a la acostumbrada con anterioridad.
  • Variedad: se manejan datos estructurados y no estructurados como fotos, mensajes, etc.

Un científico de datos necesita tener los conocimientos de:

  • Matemáticas y estadística.
  • Programación.
  • Conocimiento del negocio o contexto.
  • Habilidad para visualizar los datos y capacidad para comunicarlos.

Resumen:

Data science y programación van de la mano, un programador debe´ria conocer de ciencia de datos pues estos se encargan de recolectar los datos a través de las interfaces y los datos son la materia prima para la data sciencie. Se hace un recuento de la revolución industrial ( las revoluciones industriales). Hoy se vive la 4º revolución industrial, IoT, AI, los datos se producen constantemente, las empresas nos conocen por los datos que producimos.

Big Data es muchísimo mayor a las 16 mil columnas.
Volumen. Velocidad.Variedad son los requisitos, manejamos muchos datos no estructurados. Es decir, no en columnas.
Se requieren conocimientos de matemáticas estadística, programación, conocimiento de negocio y contexto, visualización y comunicación. Responder preguntas a través de los datos.

La veracidad se considera como el cuarto componente de Big Data

¿Que necesitan abarcar los Científicos de Datos:

  • Matemáticas y Estadística
  • Programación
  • Conocimiento sobre el negocio y el contexto donde se encuentran los datos
  • Habilidad para visualizarlos y para comunicarlos.

**BIG DATA **

Cuando hablamos de Big Data nos referimos a conjuntos de datos cuyo tamaño (volumen), complejidad (variedad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales.

**3 TÉRMINOS CLAVE **

  • VOLUMEN :
    se habla de big data cuando tenemos una cantidad de datos mucho más grande que la que soporta un excel (1048000 filas y 16000 columnas).
    algunas fuentes coinciden en que la cifra exacta de volumen de un conjunto de datos debe ser de más de 30 Teras para ser considerado big data

  • VELOCIDAD:
    habla de la velocidad con la que se generan datos.

  • VARIEDAD:
    hace referencia a que ahora manejamos datos estructurados (filas y columnas) y no estructurados (fotos , tuits)

Comparto mis notas del curso utilizando la versión 4.0.2 de R y windows 10, espero les sean de utilidad dado que con el tiempo cambian algunas cosas, dejo los datasets y los scripts en el mismo repositorio

https://github.com/rb-one/Fundamentos_R/blob/master/Notes/notes.md

Vine buscando oro y encontré diamantes invaluables!

Apasionante el Mundo de Data Science

Empezando el curso con mucha espectativa

La cuarta revolución industrial es la que toma decisiones en base a procesar grandes cantidades de información para la toma de decisiones.

Componentes claves del Big Data:
-Volumen
-Velocidad
-Variedad

cada día aprendo más de este mundo, espero aplicarlo mas adelante

Me parece importante resaltar que no solo es importante aprender un lenguaje como R o Python en otros casos para manipular Big Data, como bien lo dice Sonia en el video, estos lenguajes (en este caso R) son muy útiles para manejar Small Data porque la versatilidad del lenguaje nos permite tener un mejor manejo de los datos y en ese sentido resulta muy útil manipular grandes y no tan grandes conjuntos de datos a través de estos lenguajes.

Hola, estoy llevando un curso de ML con R en la universidad y me dejaron esta página como recurso para estudiar, está muy bien, sólo que está en inglés, espero a alguno le sirva 😁

Este curso promete!

Muy interesante

Hola Sandra es posible manejar dataset de 3.000.000 de registros con R sin latencia o que truene la consulta?

Necesitamos: Mates-Estadistica, Programacion, Conocimiento-Contexto, Visualizacion-Comunicacion

Small Data

Big Data: Volumen, Velocidad, Variedad

HOY 4ta Revolucion industrial: Big Data

1969 3ra Revolucion industrial: Electronica

1870 2da Revolucion industrial: Energia electrica

1784 1ra Revolucion Industrial: Maquina de vapor

Data Science

Data Science

componentes claves de big data

  • volumen: cantidad de datos mucho más grande de lo que cabe en un excel.
  • velocidad: debido a la gran velocidad de interacciones todo el tiempo.
  • variedad: manejo de datos estructurados y no estructurados.

Super…Curso 😃

Sobre todo visualizar y comunicar resultados.

Excelente inicio de curso…

4 Revolución industrial

Tengo conocimiento que bigdata es posible aplicarlo No a grandes volumenes de datos, con el fin de optimizar modelos de negocio. pero no necesariamente se necesita gran volumen de datos. Estoy en lo correcto ?

Big data revolution…

interesante!

Llegue aquí por curiosidad pero esto debo aprenderlo xD

El concepto de SMALL DATA no es tan conocido porque siempre se piensa en términos de BIGDATA Es interesante el concepto que presenta Sonia al tener en cuenta este segmento de datos tienen la misma relevancia que los grandes volumenes de datos.

De los 4 componentes claves del Big Data: volumen, velocidad, variedad y veracidad, pensaría que el reto más grande de tratar es el de veracidad, ya que cada vez es más complejo poder validar que un dato es correcto o no. ¿Creen que si es así, o puede haber un reto más complejo de abordar entre estos componentes?

Grandes expectativas con este curso, espero estar al nivel y que pueda aprovecharlo

Excelente introduccion, con muchas expectativas en el curso,

Sin saber hice mi tesis de ingeniero analizando small data con un estudio de mercado, así que aprender de Big Data no será completamente desconocido 😃

V’s of big data:
velocity, volume, variety, veracity, value

Muy a la expectativa!

Muy interesante video, listo para comenzar otra ruta de aprendizaje.

Así que la cuarta revolución industrial sucede con la cantidad masiva de datos.

Emocionante poder vivir en una nueva era como la 4ta Rev Industrial. Hay que aprovechar todas las ventajas que esto supone y estar al dia de todo lo nuevo que esta en demanda

No sabía de small data!

Excelente introducción

Me gustaría que me recomendaran que temas de matemáticas a parte de estadística y probabilidad es necesario manejar para ser científico de datos?

Excelente introducción!! 😃

en base a experiencia personal, usualmente la small data es manejada a traves de herramientas como excel, pero excel tiene otro limitante y es el consumo de ram cuando se aplican varias formulas de excel para obtener un analisis de datos, dicho limite en por lo menos el computador de donde trabajo es de 16.000 lineas.
He visto que R me ayuda a sobrepasar ese limite y de hecho por varios ejemplos de youtubers estadisticos se pueden hacer cosas tremendas con small data.

Resumen:

Data science y programación van de la mano, un programador debe´ria conocer de ciencia de datos pues estos se encargan de recolectar los datos a través de las interfaces y los datos son la materia prima para la data sciencie. Se hace un recuento de la revolución industrial ( las revoluciones industriales). Hoy se vive la 4º revolución industrial, IoT, AI, los datos se producen constantemente, las empresas nos conocen por los datos que producimos.

Big Data es muchísimo mayor a las 16 mil columnas.
Volumen. Velocidad.Variedad son los requisitos, manejamos muchos datos no estructurados. Es decir, no en columnas.
Se requieren conocimientos de matemáticas estadística, programación, conocimiento de negocio y contexto, visualización y comunicación. Responder preguntas a través de los datos.

La veracidad se considera como el cuarto componente de Big Data

¿Que necesitan abarcar los Científicos de Datos:

  • Matemáticas y Estadística
  • Programación
  • Conocimiento sobre el negocio y el contexto donde se encuentran los datos
  • Habilidad para visualizarlos y para comunicarlos.

**BIG DATA **

Cuando hablamos de Big Data nos referimos a conjuntos de datos cuyo tamaño (volumen), complejidad (variedad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales.

**3 TÉRMINOS CLAVE **

  • VOLUMEN :
    se habla de big data cuando tenemos una cantidad de datos mucho más grande que la que soporta un excel (1048000 filas y 16000 columnas).
    algunas fuentes coinciden en que la cifra exacta de volumen de un conjunto de datos debe ser de más de 30 Teras para ser considerado big data

  • VELOCIDAD:
    habla de la velocidad con la que se generan datos.

  • VARIEDAD:
    hace referencia a que ahora manejamos datos estructurados (filas y columnas) y no estructurados (fotos , tuits)

Comparto mis notas del curso utilizando la versión 4.0.2 de R y windows 10, espero les sean de utilidad dado que con el tiempo cambian algunas cosas, dejo los datasets y los scripts en el mismo repositorio

https://github.com/rb-one/Fundamentos_R/blob/master/Notes/notes.md

Vine buscando oro y encontré diamantes invaluables!

Apasionante el Mundo de Data Science

Empezando el curso con mucha espectativa

La cuarta revolución industrial es la que toma decisiones en base a procesar grandes cantidades de información para la toma de decisiones.

Componentes claves del Big Data:
-Volumen
-Velocidad
-Variedad

cada día aprendo más de este mundo, espero aplicarlo mas adelante

Me parece importante resaltar que no solo es importante aprender un lenguaje como R o Python en otros casos para manipular Big Data, como bien lo dice Sonia en el video, estos lenguajes (en este caso R) son muy útiles para manejar Small Data porque la versatilidad del lenguaje nos permite tener un mejor manejo de los datos y en ese sentido resulta muy útil manipular grandes y no tan grandes conjuntos de datos a través de estos lenguajes.

Hola, estoy llevando un curso de ML con R en la universidad y me dejaron esta página como recurso para estudiar, está muy bien, sólo que está en inglés, espero a alguno le sirva 😁

Este curso promete!

Muy interesante

Hola Sandra es posible manejar dataset de 3.000.000 de registros con R sin latencia o que truene la consulta?

Necesitamos: Mates-Estadistica, Programacion, Conocimiento-Contexto, Visualizacion-Comunicacion

Small Data

Big Data: Volumen, Velocidad, Variedad

HOY 4ta Revolucion industrial: Big Data

1969 3ra Revolucion industrial: Electronica

1870 2da Revolucion industrial: Energia electrica

1784 1ra Revolucion Industrial: Maquina de vapor

Data Science

Data Science

componentes claves de big data

  • volumen: cantidad de datos mucho más grande de lo que cabe en un excel.
  • velocidad: debido a la gran velocidad de interacciones todo el tiempo.
  • variedad: manejo de datos estructurados y no estructurados.

Super…Curso 😃

Sobre todo visualizar y comunicar resultados.

Excelente inicio de curso…

4 Revolución industrial

Tengo conocimiento que bigdata es posible aplicarlo No a grandes volumenes de datos, con el fin de optimizar modelos de negocio. pero no necesariamente se necesita gran volumen de datos. Estoy en lo correcto ?

Big data revolution…

interesante!

Llegue aquí por curiosidad pero esto debo aprenderlo xD

El concepto de SMALL DATA no es tan conocido porque siempre se piensa en términos de BIGDATA Es interesante el concepto que presenta Sonia al tener en cuenta este segmento de datos tienen la misma relevancia que los grandes volumenes de datos.

De los 4 componentes claves del Big Data: volumen, velocidad, variedad y veracidad, pensaría que el reto más grande de tratar es el de veracidad, ya que cada vez es más complejo poder validar que un dato es correcto o no. ¿Creen que si es así, o puede haber un reto más complejo de abordar entre estos componentes?

Grandes expectativas con este curso, espero estar al nivel y que pueda aprovecharlo

Excelente introduccion, con muchas expectativas en el curso,

Sin saber hice mi tesis de ingeniero analizando small data con un estudio de mercado, así que aprender de Big Data no será completamente desconocido 😃

V’s of big data:
velocity, volume, variety, veracity, value

Muy a la expectativa!

Muy interesante video, listo para comenzar otra ruta de aprendizaje.

Así que la cuarta revolución industrial sucede con la cantidad masiva de datos.

Emocionante poder vivir en una nueva era como la 4ta Rev Industrial. Hay que aprovechar todas las ventajas que esto supone y estar al dia de todo lo nuevo que esta en demanda

No sabía de small data!

Excelente introducción

Me gustaría que me recomendaran que temas de matemáticas a parte de estadística y probabilidad es necesario manejar para ser científico de datos?

Excelente introducción!! 😃

en base a experiencia personal, usualmente la small data es manejada a traves de herramientas como excel, pero excel tiene otro limitante y es el consumo de ram cuando se aplican varias formulas de excel para obtener un analisis de datos, dicho limite en por lo menos el computador de donde trabajo es de 16.000 lineas.
He visto que R me ayuda a sobrepasar ese limite y de hecho por varios ejemplos de youtubers estadisticos se pueden hacer cosas tremendas con small data.