Lleva tu carrera a otro nivel por menos de 1 dólar al día.

Escuela de Data Science

Escuela de Data Science

Domina las herramientas y técnicas para el procesamiento de Big Data y Ciencia de Datos.

Acelera tu carrera profesional

La Ciencia de Datos nos permite extraer, clasificar y procesar grandes cantidades de información.

¿Por qué estudiar Data Science?

Data science es la combinación de técnicas matemáticas y computacionales para recolectar, transformar, almacenar, agregar, clasificar y optimizar datos. Es uno de los campos del conocimiento en mayor desarrollo y con mayor demanda laboral dentro del mundo de la tecnología. Hoy en día todas las empresas serias tienen un equipo de data science.

Adicionalmente, las técnicas y herramientas que dominan los expertos en ciencia de datos aplican a una variedad de problemas que van más allá de la empresa tradicional. Problemas en el mundo de la biología, medicina, educación, economía, finanzas, derecho, sociología, física, etc., pueden resolverse con modelos y aplicaciones que construyen las y los expertos en datos.

Es por esto que en Platzi hemos creado la Escuela de Data Science para que formes parte de esta revolución y te unas a los y las profesionales que están transformado al mundo con datos.

¿Cuáles son los roles que puedo desempeñar en un equipo de data science?

Las personas que forman parte de un equipo de data science realizan una variedad de actividades que les permiten llegar a conclusiones con base en los datos que analizan. A la par de conocer cada uno de estos roles es importante conocer los pasos de un flujo de trabajo en ciencia de datos.

Data engineer

Los data engineers se encargan de crear y mantener la infraestructura de software que permite el procesamiento de grandes conjuntos de datos. Su mundo gira alrededor de tecnologías como Hadoop, Spark, Kafka, Airflow, sistemas de monitoreo, uso de nubes públicas como Google Cloud Platform o AWS y mucho más. Son grandes expertas en ingeniería de software y arquitectura de sistemas en la nube. Operan en las etapas de recolección y almacenamiento.

La etapa de recolección consiste en la obtención de los datos de una variedad de fuentes. Lo importante en esta etapa es sistematizar y automatizar la recolección de los mismos para crear un flujo constante que permita identificar tendencias y patrones en los siguientes pasos.

En ocasiones los datos pueden analizarse mientras van llegando, en otras el análisis se hace posteriormente. Es por ello que es importante almacenarlos de manera segura y accesible en la etapa de almacenamiento. Aquí también se toman decisiones arquitectónicas sobre la estructura de los datos. Términos como ETL, data lakes, data warehouses y otros son comunes a esta etapa. Aquí es fundamental un conocimiento de infraestructura y sistemas de almacenamiento.

Data analyst

Su principal objetivo es encontrar conocimiento a partir de datos existentes y compartir hallazgos relevantes para tomar decisiones de negocio. Para ello sus habilidades parten desde conocimientos en Excel, estadística, herramientas de visualización de datos como Tableau y Microsoft Power BI, hasta manejar lenguajes como SQL para consultas y Python para la manipulación, transformación y análisis de los datos.

Un data analyst opera en una etapa de exploración partiendo de un problema a resolver mediante un análisis. Primero deberá extraer datos recolectados y reorganizarlos para que puedan ser entendidos. Usando herramientas estadísticas interpretará los datos con especial atención en tendencias y patrones que pueden tener gran valor para su diagnóstico. Finalmente deberá comunicar sus hallazgos a líderes que toman decisiones de negocio a través de reportes con gráficas y dashboards de manera que sea muy sencillo entenderlos.

Data scientist

Las habilidades de un data scientist contemplan varias de las de una analista de datos con lenguajes como Python y SQL, probabilidad y estadística, pero también con conocimientos de inteligencia artificial como cálculo, álgebra lineal, support vector machines, decisions trees, redes neuronales, Tensorflow, Keras, PyTorch, scikit-learn y algunas herramientas de desarrollo backend.

Su trabajo empieza en una etapa de exploración y transformación. Llevan a cabo la limpieza, detección de anomalías y creación de datasets a partir de datos crudos. Sus habilidades les permiten explorar cómo se distribuyen los datos encontrando valores estadísticos descriptivos. Posteriormente transforman el dataset para que los modelos predictivos de clasificación puedan operar sobre el mismo.

Una vez que los datos están limpios es momento de realizar un análisis más avanzado en la etapa de agregación y etiquetado. La tarea es segmentar los datos, definir y obtener métricas, generar agregaciones, extraer features y preparar los datos para machine learning.

También es momento de generar visualizaciones para facilitar la detección de patrones, correlaciones y relaciones de causalidad que estaban escondidas en los datos crudos. Aquí más que nunca es muy importante el conocimiento matemático y del negocio para realizar las preguntas indicadas y llegar a conclusiones correctas.

Finalmente, llega la etapa de aprendizaje automatizado y optimización para obtener información que dé una ventaja a la organización ayudándola a entender de manera precisa el comportamiento de sus usuarios y su negocio.

Es posible forzar el dataset con técnicas avanzadas de machine learning y deep learning para obtener resultados que no era posible obtener en etapas anteriores. Aquí también crean modelos predictivos poderosos que permiten generar recomendaciones para aumentar los beneficios que se le pueden ofrecer a todos los usuarios de la empresa.

Machine learning engineer

Los machine learning engineers operan en el último tramo del flujo dentro de la etapa de aprendizaje automatizado y optimización. Su tarea es escalar y robustecer los modelos que un científico de datos ha construido. Por supuesto este rol requiere las mismas habilidades de inteligencia artificial de un científico de datos, pero además requiere profundizar en despliegue de aplicaciones con herramientas como Flask, Django, FastAPI, Docker, conocimiento de infraestructura y servicios cloud como AWS, Google Cloud Platform o Microsoft Azure.

Un machine learning engineer se asegura que todas las tareas de los sistemas en producción funcionen correctamente. Para ello hace un uso extensivo de algoritmia y de librerías de machine learning y mejoran los modelos que han sido puestos en producción haciendo mantenible, escalable y depurable el código que ha creado un data scientist mediante la automatización y abstracción de procesos repetitivos presentes en la mayoría de las tareas de machine learning.

El trabajo de una machine learning engineer es uno de los roles que más aprovecha los conocimientos de ingeniería de software dentro de un equipo de datos.

¿Cómo me convierto en profesional de los datos?

Si has llegado hasta este punto seguramente te has decidido a especializarte en data science. Probablemente ya hasta tienes en mente en cuál de todos estos roles te gustaría profundizar, pero antes de eso necesitamos aclarar que cualquier profesional de los datos tiene dominio en estas tres áreas:

  1. Ciencias de la computación.
  2. Matemáticas y estadística.
  3. Experiencia en el campo o dominio del negocio.

Al principio tu objetivo será desarrollar habilidades y conocimientos en estas tres áreas. Para lograrlo solamente comienza con la parte básica de esta Escuela de Data Science que está preparada específicamente para brindarte estos poderes esenciales.

Una vez que termines te habrás preparado para seguir tu camino en los diferentes roles de un equipo de data science.

¡No esperes más! Comienza ahora esta aventura para convertirte en profesional de los datos.

Glosario

Glosario

Ciencia de Datos: Área de conocimiento que busca agregar valor a los datos por medio de la confluencia de análisis estadísticos, métodos computacionales y visualización de información.

Big Data: Conjunto de información cuya longitud (número de registros), variedad (número de características por cada registro) y frecuencia (ritmo con el cual se actualiza la información) impiden que los métodos de procesamiento de datos convencionales sean suficientes para su manejo.

Bases de datos: Las bases de datos son contenedores o repositorios digitales en los que se almacenan de manera estructurada y organizada datos que comparten un mismo contexto para su posterior procesamiento y consulta.

Keyword: Se refiere a la palabra clave que atrae al mayor número de seguidores a través de buscadores. Cuando tienes claro cuáles son las keywords que definen tu contenido puedes posicionarlo de manera orgánica o paga lo cual influye en el número de búsquedas y las conversiones.

Machine Learning: Rama de la inteligencia artificial que se encarga del estudio de métodos automatizados por medio de algoritmos y estadística, para generar modelos matemáticos que permitan resolver tareas de forma tal que sea el software quien descifre por sí mismo como resolver dicho problema.

Aprende de los mejores

Juan Pablo Morales

Juan Pablo Morales

Gerente de ingeniería en Arara

@JuanpaMF
Sergio Orduz

Sergio Orduz

Ingeniero Eléctrico en

Ariel Ortiz

Ariel Ortiz

COO en Spin Quantum Tech

@ludthor
Israel Vázquez Morales

Israel Vázquez Morales

Senior Software Engineer en YouNoodle

@israbaurel
Carlos Alarcón

Carlos Alarcón

Data Scientist en Platzi

@alarcon7a
Julián Cruz

Julián Cruz

Docente en Universidad Externado de Colombia

@Cruz_Julian_
Katherine Briceño

Katherine Briceño

Consultora en Analítica en Banco GNB

María Plaza C

María Plaza C

Head of Business Development & Growth en Populetic

@MariaPlazaC
Mauro Chojrin

Mauro Chojrin

Consultor PHP en Independiente

@mchojrin
Enrique Devars

Enrique Devars

Course Director, Facultad de Computer Science en Platzi

@codevars
Alberto Alcocer

Alberto Alcocer

en Independiente

@beco
Yesi Díaz

Yesi Díaz

Data Scientist en Rappi

@silvercorp
Martín Sokolowicz

Martín Sokolowicz

Ayudante Experto en Digital House

Óscar Gutiérrez Castillo

Óscar Gutiérrez Castillo

Analista Desarrollador en StratBranding

@Ator97
Sílvia Ariza Sentís

Sílvia Ariza Sentís

Data Scientist en DiDi

@silari_
Giuseppe Roa Osorio

Giuseppe Roa Osorio

Senior Analytical Consultant en Claro

David Torres

David Torres

Data Scientist en Platzi

@davinci137
Facundo García Martoni

Facundo García Martoni

Technical Mentor en Platzi

@facmartoni
Maria Cruz

Maria Cruz

Data Scientist en Athena

@CgMcruzg
Daniel Sánchez

Daniel Sánchez

Integrador Creativo en Aprende Institute

@danielowho
Marian Villa

Marian Villa

Co-fundadora y directora en Pionerasdev

@Marianvilla
Alejandro Santamaria

Alejandro Santamaria

CTO en Shoelovers.co

@alexs_mx
Sonia Ardila

Sonia Ardila

Senior Data Specialist en Claro Colombia

@soniaardila1
David Aroesti

David Aroesti

Dean of Computer Science Faculty en Platzi

@jdaroesti
Sebastián Sosa

Sebastián Sosa

Co-founder en Caburé

@helblings
Francisco Camacho

Francisco Camacho

Data Scientist en Platzi

@el_pachocamacho
Ulises Rayon

Ulises Rayon

Outbound Analyst en Platzi

Benjamín Casazza

Benjamín Casazza

CEO en Data to Business

@_uracilo
Ricardo Celis

Ricardo Celis

Course Director en Platzi

@celismx
Luis Jorge Novelo

Luis Jorge Novelo

Master Coach en Platzi Master

@novelonovelo
Juan José Bello

Juan José Bello

Co founder / Marketer en Porter Metrics

Freddy Vega

Freddy Vega

CEO en Platzi

@freddier

Rutas relacionadas para complementar tu aprendizaje

Escuela de Matemáticas

Escuela de Matemáticas

Aprende en casa temas de matemáticas como álgebra, ecuaciones, funciones, cálculo y probabilidad. Desarrolla tus propios análisis matemáticos y aplícalos.
Bases de Datos desde Cero

Bases de Datos desde Cero

Es muy importante saber qué, cómo y dónde se guardarán tus datos. Aprende desde cero la teoría y práctica para administrar DBs profesionalmente.
Inteligencia Artificial y Machine Learning

Inteligencia Artificial y Machine Learning

Aprende la tecnología detrás de los automóviles autónomos, asistentes personales, predicción de enfermedades y más.