CursosEmpresasBlogLiveConfPrecios

Proceso de análisis y limpieza de datos

Clase 2 de 17 • Curso de Manejo de Datos Faltantes: Imputación

Clase anteriorSiguiente clase

Contenido del curso

Problemática de valores faltantes
  • 1
    El problema de trabajar con valores faltantes

    El problema de trabajar con valores faltantes

    10:56
  • 2
    Proceso de análisis y limpieza de datos

    Proceso de análisis y limpieza de datos

    13:19
  • 3
    Visualizar y eliminar valores faltantes

    Visualizar y eliminar valores faltantes

    08:19
  • 4
    Implicaciones de los distintos tipos de valores faltantes

    Implicaciones de los distintos tipos de valores faltantes

    09:43
  • 5
    Amplía tu conjunto de herramientas para explorar valores faltantes

    Amplía tu conjunto de herramientas para explorar valores faltantes

    11:55
  • 6
    Tratamiento de variables categóricas para imputación: codificación ordinal

    Tratamiento de variables categóricas para imputación: codificación ordinal

    15:59
  • 7
    Tratamiento de variables categóricas para imputación: one-hot encoding

    Tratamiento de variables categóricas para imputación: one-hot encoding

    12:51
  • 8
    Métodos de imputación de valores faltantes

    Métodos de imputación de valores faltantes

    04:41
Imputación basada en el donante
  • 9
    Imputación por media, mediana y moda

    Imputación por media, mediana y moda

    10:22
  • 10
    Imputación por llenado hacia atrás y hacia adelante

    Imputación por llenado hacia atrás y hacia adelante

    09:20
  • 11
    Imputación por interpolación

    Imputación por interpolación

    11:46
  • 12
    Imputación por KNN

    Imputación por KNN

    04:34
  • 13
    Imputación por KNN en Python

    Imputación por KNN en Python

    12:01
Imputación basada en modelos
  • 14
    Introducción a la imputación basada en modelos

    Introducción a la imputación basada en modelos

    13:27
  • 15
    Imputaciones Múltiples por Ecuaciones Encadenadas (MICE)

    Imputaciones Múltiples por Ecuaciones Encadenadas (MICE)

    13:05
Conclusión
  • 16
    Transformación inversa de los datos

    Transformación inversa de los datos

    07:07
  • 17
    ¿Cómo continuar practicando?

    ¿Cómo continuar practicando?

    03:09
    Mauro Benito Montoya Arenas

    Mauro Benito Montoya Arenas

    student•
    hace 3 años

    Esto es lo que dice ChatGPT sobre NHANES:

    • NHANES (National Health and Nutrition Examination Survey) es una encuesta realizada por el gobierno de los Estados Unidos que recopila información sobre la salud y la nutrición de la población estadounidense. En Python, NHANES se refiere al conjunto de datos de esta encuesta que se han puesto a disposición del público en formato de archivo.

    • El conjunto de datos de NHANES en Python puede ser utilizado por investigadores, científicos de datos y profesionales de la salud para realizar análisis estadísticos y epidemiológicos. El conjunto de datos incluye información sobre una amplia variedad de variables, como edad, sexo, raza, antecedentes médicos, medidas antropométricas, resultados de laboratorio y encuestas de dieta.

    • En Python, existen paquetes especializados que permiten a los usuarios cargar y manipular los datos de NHANES, como Pandas y NumPy. Además, también existen librerías de visualización de datos, como Matplotlib y Seaborn, que pueden utilizarse para visualizar los datos de NHANES.

    • En resumen, NHANES en Python es una herramienta útil para la investigación en salud y nutrición, que permite a los usuarios realizar análisis estadísticos y epidemiológicos basados en datos confiables y de gran calidad.

    Jeinfferson Bernal G

    Jeinfferson Bernal G

    student•
    hace 3 años

    A pesar que se eliminaron los registros con valores faltantes para la variable diabetes debe tenerse argumentos bien claros por lo que se hizo. Esto se debe a que se pierde informacion en otras variables que podrian ser relevantes. Todo depende del analisis que se quiere realizar.

    Pablo Alejandro Figueroa

    Pablo Alejandro Figueroa

    student•
    hace 2 años

    ¿Por qué "Borderline" realmente no nos interesa? No es un dato faltante, puede ser una condición de pre-diabetes?

    Captura de pantalla 2024-01-30 234006.png
      Milovan Marrder

      Milovan Marrder

      student•
      hace 2 meses

      Se podría crear una nueva columna, booleana, que contenga si está BorderLine. Así se quita de esa columnas, pero te serviría para otros análisis.

    Andres Sanchez

    Andres Sanchez

    student•
    hace 2 años

    2. Proceso de análisis y limpieza de datos

    nhanes_raw_df = ( nhanes.load.load_NHANES_data(year='2017-2018') .clean_names(case_type='snake') ) nhanes_raw_df.shape nhanes_df = ( nhanes_raw_df .select_columns( 'general_health_condition', 'age_in_years_at_screening', 'gender', 'current_selfreported_height_inches', 'current_selfreported_weight_pounds', 'doctor_told_you_have_diabetes', '60_sec_pulse30_sec_pulse2', 'total_cholesterol_mgdl' ) .rename_columns( { 'age_in_years_at_screening': 'age', 'current_selfreported_height_inches': 'height', 'current_selfreported_weight_pounds': 'weight', 'doctor_told_you_have_diabetes': 'diabetes', '60_sec_pulse30_sec_pulse2': 'pulse', 'total_cholesterol_mgdl': 'total_cholesterol' } ) .replace( { 'height': { 9999: np.nan, 7777: np.nan, }, 'weight': { 9999: np.nan, 7777: np.nan, }, 'diabetes': { 'Borderline': np.nan } } ) .missing.sort_variables_by_missingness() .dropna( subset = ['diabetes'], how = 'any' ) .transform_column( column_name = 'diabetes', function = lambda s: s.astype(int), elementwise = False ) ) nhanes_df.head()
      Julián Cárdenas

      Julián Cárdenas

      student•
      hace 2 años

      Gracias!

    David Duque Uribe

    David Duque Uribe

    student•
    hace 3 años

    En Google colab, no me funciona la línea import janitor, a pesar de haber instalado previamente janitor. Alguien sabe como solucionar este problema

      ariel diaz

      ariel diaz

      student•
      hace 3 años

      proba de la siguiente forma pip install pyjanitor==0.23.1 Saludos!!!

      Pablo Alejandro Figueroa

      Pablo Alejandro Figueroa

      student•
      hace 2 años

      Dentro de colab:

      !pip install pyjanitor
    Jeinfferson Bernal G

    Jeinfferson Bernal G

    student•
    hace 3 años

    Cambiar nombres de las variables

    nhanes_df = ( nhanes_raw_df .select_columns( "general_health_condition", "age_in_years_at_screening", "gender", "current_selfreported_height_inches", "current_selfreported_weight_pounds", "doctor_told_you_have_diabetes", "60_sec_pulse30_sec_pulse2", "total_cholesterol_mgdl" ) # cambiar nombre de las columnas seleccionadas mediante un dict .rename_columns( { "age_in_years_at_screening":"age", "current_selfreported_height_inches":"height", "current_selfreported_weight_pounds":"weight", "doctor_told_you_have_diabetes":"diabetes", "60_sec_pulse30_sec_pulse2":"pulse", "total_cholesterol_mgdl":"total_cholesterol" } )

    Una funcion muy util!

    Julián Cárdenas

    Julián Cárdenas

    student•
    hace 2 años

    no puedo descargar janitor y me sale este error ERROR: Could not install packages due to an OSError: [Errno 30] Read-only file system: 'top_level.txt'

    Mario Alexander Vargas Celis

    Mario Alexander Vargas Celis

    student•
    hace un año

    El proceso de análisis y limpieza de datos es crucial en el trabajo con datos para garantizar que los datos sean precisos, consistentes y listos para el análisis. Aquí te presento un proceso general que puedes seguir para el análisis y limpieza de datos:

    ### 1. **Recolección de Datos**

    - **Fuentes de Datos:** Identifica y recolecta datos de diversas fuentes como bases de datos, archivos CSV, API, etc.

    - **Formato y Estructura:** Asegúrate de que los datos estén en un formato estructurado adecuado (p. ej., CSV, Excel, JSON).

    ### 2. **Exploración de Datos**

    - **Carga de Datos:** Utiliza herramientas como Pandas para cargar los datos en un DataFrame.

    ```python

    import pandas as pd

    df = pd.read_csv('datos.csv')

    ```

    - **Resumen Inicial:** Examina un resumen general de los datos.

    ```python

    print(df.head())

    print(df.info())

    print(df.describe())

    ```

    - **Identificación de Valores Faltantes:** Revisa la presencia de valores faltantes.

    ```python

    print(df.isnull().sum())

    ```

    ### 3. **Limpieza de Datos**

    - **Manejo de Valores Faltantes:**

    - **Eliminación:** Elimina filas o columnas con valores faltantes si es aceptable.

    ```python

    df.dropna() # Elimina filas con valores faltantes

    ```

    - **Imputación:** Reemplaza valores faltantes con valores estadísticos como la media, mediana, moda o utilizando técnicas más avanzadas.

    ```python

    df.fillna(df.mean()) # Reemplaza valores faltantes con la media

    ```

    - **Corrección de Errores:**

    - **Valores Incorrectos:** Identifica y corrige errores en los datos.

    ```python

    df['column'] = df['column'].replace('incorrect_value', 'correct_value')

    ```

    - **Duplicados:** Elimina filas duplicadas si es necesario.

    ```python

    df.drop_duplicates()

    ```

    - **Normalización y Transformación:**

    - **Escalado:** Normaliza o escala los datos si es necesario.

    ```python

    from sklearn.preprocessing import StandardScaler

    scaler = StandardScaler()

    df[['column']] = scaler.fit_transform(df[['column']])

    ```

    - **Codificación:** Codifica variables categóricas si es necesario.

    ```python

    df = pd.get_dummies(df, columns=['categorical_column'])

    ```

    ### 4. **Visualización de Datos**

    - **Gráficos Básicos:** Utiliza gráficos básicos para explorar la distribución y las relaciones en los datos.

    ```python

    import matplotlib.pyplot as plt

    df['column'].hist()

    plt.show()

    ```

    - **Visualización de Valores Faltantes:** Utiliza gráficos para visualizar los patrones de los valores faltantes.

    ```python

    import seaborn as sns

    sns.heatmap(df.isnull(), cbar=False, cmap='viridis')

    plt.show()

    ```

    ### 5. **Análisis de Datos**

    - **Estadísticas Descriptivas:** Calcula estadísticas descriptivas y explora la distribución de los datos.

    ```python

    print(df.describe())

    ```

    - **Correlación:** Examina la correlación entre variables.

    ```python

    print(df.corr())

    sns.heatmap(df.corr(), annot=True)

    plt.show()

    ```

    ### 6. **Documentación y Reporte**

    - **Documentación:** Documenta todos los pasos tomados, decisiones y transformaciones realizadas.

    - **Reporte:** Genera informes que resuman el estado de los datos y los resultados del análisis.

    ### Herramientas Comunes

    - **Python Libraries:** Pandas, NumPy, Matplotlib, Seaborn, Scikit-learn.

    - **Software de BI:** Power BI, Tableau.

    - **Jupyter Notebooks:** Para documentar y ejecutar el análisis de manera interactiva.

    Este proceso puede variar según el contexto y los requisitos específicos del proyecto, pero estos pasos proporcionan una guía general para el análisis y la limpieza de datos.

    Angelo Augusto Gallici Aquino

    Angelo Augusto Gallici Aquino

    student•
    hace 2 años

    Alguien me puede ayudar? cada vez que duplico el proyecto y lo trabajo funciona perfecto, pero cuando se apaga el notebook, y lo vuelvo a encender y trato de ejecutar empieza a dar errores con los import y librerias, y la unica forma de solucionarlo es borrando el proyecto y creandolo de nuevo

      Ragknos Demian Fernandez Agraz Rodriguez

      Ragknos Demian Fernandez Agraz Rodriguez

      student•
      hace 2 años

      Hola, te recomiendo que copies todo el codigo y crear tu propio Archivo Notebook(en mi situacion fue lo mejor) al parecer es error del propio deepnote

      PEDRO ANTONIO VELEZ VELEZ

      PEDRO ANTONIO VELEZ VELEZ

      student•
      hace 2 años

      Normalmente los notebooks luego de haberse cerrado toca comenzar a ejecutar los códigos desde el inicio, pero revisa que he visto que tienen la opción de ejecutar todo el código con un sólo clic.

    Pablo Alejandro Figueroa

    Pablo Alejandro Figueroa

    student•
    hace 2 años

    chequeado:

    Captura de pantalla 2024-01-30 224402.png
    Captura de pantalla 2024-01-30 224240.png
    # Ordenar solo la columna de mayor a menor sorted_heights = nhanes_raw_df['current_selfreported_height_inches'].sort_values(ascending=False) sorted_weights = nhanes_raw_df['current_selfreported_weight_pounds'].sort_values(ascending=False) # Imprimir la columna ordenada print(sorted_heights) print(sorted_weights)
    Pablo Alejandro Figueroa

    Pablo Alejandro Figueroa

    student•
    hace 2 años

    por si acaso...

    Captura de pantalla 2024-01-30 125726.png
      Nelson Ricardo Ramírez García

      Nelson Ricardo Ramírez García

      student•
      hace 2 años

      Hola. Me parece muy interesante tu aporte. Me podrías explicar qué hiciste con estas tres funciones. Deduzco, con temor a equivocarme, que la primera función toma un DataFrame, calcula la cantidad y el porcentaje de valores faltantes por fila, y devuelve un nuevo DataFrame con esa información. La segunda, el método missing_variable_table parece calcular una tabla que resume la cantidad de variables con diferentes cantidades de valores faltantes en el DataFrame _obj. La tercera, el método missing_case_table parece calcular una tabla que resume la cantidad de casos con diferentes cantidades de valores faltantes en el DataFrame _obj. ¿Me podrías explicar más tu aporte?

      Pablo Alejandro Figueroa

      Pablo Alejandro Figueroa

      student•
      hace 2 años

      Hola Nelson, dichas funciones son parte del material de estudio de Platzi, seguramente la verán durante el curso, pero vienen de un curso previo a este. Solamente corregí unos errores por los cuales no me funcionaba a mí en VSC.

    david jurado

    david jurado

    student•
    hace 2 años

    Cómo se en otro notebook, por ejemplo VSC que en height hay variables de 49 a 9999??

      Pablo Alejandro Figueroa

      Pablo Alejandro Figueroa

      student•
      hace 2 años
      # Ordenar solo la columna de mayor a menor sorted_heights = nhanes_raw_df['current_selfreported_height_inches'].sort_values(ascending=False) sorted_weights = nhanes_raw_df['current_selfreported_weight_pounds'].sort_values(ascending=False) sorted_diabetes = nhanes_raw_df['doctor_told_you_have_diabetes'].sort_values(ascending=False) # Imprimir la columna ordenada print(sorted_heights) #print(sorted_weights) #print(sorted_diabetes)
      Emmanuel Guerra Sánchez

      Emmanuel Guerra Sánchez

      student•
      hace un año

      Puedes seleccionar la series y obtener los valores maximos o minimos. También puedes utilizar describe() para obtener un resumen estadístico de el DataFrame o la Serie

    Andres Felipe Vargas Gonzalez

    Andres Felipe Vargas Gonzalez

    student•
    hace un año

    ¿Cómo puedo importar Nhanes en Visual Code?

    Mauricio Escobar

    Mauricio Escobar

    student•
    hace un año

    Para confirmar si tenemos datos tipo MCAR o MAR podemos usar la prueba de chi squared:

    https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.chi2_contingency.html

    #from scipy.stats import chi2_contingency def chi_square_test(df: pd.DataFrame): for col in df.columns: if df[col].isnull().sum() > 0: for col2 in df.columns: if col != col2 and df[col2].isnull().sum() == 0: table = pd.crosstab(df[col].isnull(), df[col2]) chi2, p, dof, ex = chi2_contingency(table) print(f'Chi-square test between {col} and {col2}: p-value = {p}') chi_square_test(df_nh) ```resultados:   ![](https://static.platzi.com/media/user_upload/Captura%20de%20pantalla%202024-07-25%20a%20la%28s%29%206.28.17p.m.-ab2fde90-47b9-48d8-ae29-9a2fdf6a9a96.jpg) donde **p-value**: es una medida de la evidencia contra una hipótesis nula. Un valor p bajo indica una fuerte evidencia contra la hipótesis nula *(a partir de ahora H\_0)*. *  en nuestro contexto de los datos nulos, H\_0 indica que los nulos son completamente al azar *(o sea MCAR)* ![](https://static.platzi.com/media/user_upload/Captura%20de%20pantalla%202024-07-25%20a%20la%28s%29%206.51.11p.m.-6f47c69c-a04f-4b1b-ae68-d400f50edbe5.jpg) **interpretación**: en estos casos se observa una fuerte evidencia contra H\_0 de que los datos nulos son MCAR.  * Por lo tanto, *es probable* que estos nulos en esas variables estén relacionados con otras variables en el dataset. Lo cual sugiere que los datos podríasn ser MAR ![](https://static.platzi.com/media/user_upload/Captura%20de%20pantalla%202024-07-25%20a%20la%28s%29%206.51.16p.m.-fe15128d-7713-4300-b7c8-4f51ffe1a29b.jpg) **interpretación**: en estas otras relaciones observamos que no hay suficiente evidencia para rechazar H\_0.  * Lo cual sugiere que los nulos en estas variables podrían ser MCAR con respecto a las variables analizadas (*en este caso, el género)* **¿Y ahora qué?**  Si los datos son **MCAR**: imputamos :D  Si los datos son **MAR**: deberíamos usar métodologías más avanzadas de imputación (como **MICE**) o modelos predictivos, confirmamos que no salgan cosas raras *(análisis descriptivos)* y hacer pruebas de sensibilidad para evaluar cómo diferentes métodos de imputación afectan los resultados y asegurarnos de no haberla c\*\*\*
    Antonio Demarco Bonino

    Antonio Demarco Bonino

    student•
    hace un año

    Yo lo cambie de la siguiente manera:

    (nhanes_raw_df.select_columns( "general_health_condition", "age_in_years_at_screening", "gender", "current_selfreported_height_inches", "current_selfreported_weight_pounds", "doctor_told_you_have_diabetes", "60_sec_pulse30_sec_pulse2", "total_cholesterol_mgdl" ) .rename(columns={'general_health_condition': 'health_condition'}) .rename(columns={'age_in_years_at_screening': 'age'}) .rename(columns={'current_selfreported_height_inches': 'height_inches'}) .rename(columns={'current_selfreported_weight_pounds': 'weight_pounds'}) .rename(columns={'doctor_told_you_have_diabetes': 'diabetes'}) .rename(columns={'60_sec_pulse30_sec_pulse2': 'pulse'}) .rename(columns={'total_cholesterol_mgdl': 'cholesterol'}) ) ```(nhanes\_raw\_df.select\_columns(    "general\_health\_condition",    "age\_in\_years\_at\_screening",    "gender",    "current\_selfreported\_height\_inches",    "current\_selfreported\_weight\_pounds",    "doctor\_told\_you\_have\_diabetes",    "60\_sec\_pulse30\_sec\_pulse2",    "total\_cholesterol\_mgdl").rename(columns={'general\_health\_condition': 'health\_condition'}).rename(columns={'age\_in\_years\_at\_screening': 'age'}).rename(columns={'current\_selfreported\_height\_inches': 'height\_inches'}).rename(columns={'current\_selfreported\_weight\_pounds': 'weight\_pounds'}).rename(columns={'doctor\_told\_you\_have\_diabetes': 'diabetes'}).rename(columns={'60\_sec\_pulse30\_sec\_pulse2': 'pulse'}).rename(columns={'total\_cholesterol\_mgdl': 'cholesterol'}) )
    Gian HM

    Gian HM

    student•
    hace 2 años
    .dropna( subset = ["diabetes"], how = "any" ) ```En esta parte no es necesario colocar any ya que esta por defecto en dropna :)
    Paola Alapizco

    Paola Alapizco

    student•
    hace 2 años

    📝 Mi resumen de la clase

    📌 Limpiar los datos antes de imputarlos.

    Pasos de la limpieza de datos:

    1. Selección de variables: Dejar solo las variables necesarias para el análisis.
    2. Cambio de nombre a las variables: Definir nombres más legibles.
    3. Cambio de representación de valores faltantes: Identificar como están codificados los valores faltantes y reemplazarlo por un np.nan.
    4. Ordenar dataset: De mayor a menor cantidad de valores faltantes
    5. Eliminar observaciones con valores faltantes: observaciones de valores faltantes en una variable cuando sea una proporción no significativa o muy pequeña
    6. Cambio de tipo de datos: Si la variable solo tiene valores enteros y la herramienta nos dice que son tipo Object, modificarlo al tipo de dato correspondiente.
    Pablo Alejandro Figueroa

    Pablo Alejandro Figueroa

    student•
    hace 2 años
    Captura de pantalla 2024-01-30 235413.png
    Pablo Alejandro Figueroa

    Pablo Alejandro Figueroa

    student•
    hace 2 años
    Captura de pantalla 2024-01-30 225837.png
    Pablo Alejandro Figueroa

    Pablo Alejandro Figueroa

    student•
    hace 2 años

    para ver los máximos y los minimos:

    # Seleccionar solo las columnas numéricas numeric_columns = nhanes_raw_df.select_dtypes(include='number') # Encontrar el valor máximo y mínimo de cada columna max_values = numeric_columns.max() min_values = numeric_columns.min() # Configurar la visualización para mostrar todas las filas y columnas pd.set_option('display.max_rows', None) pd.set_option('display.max_columns', None) print("Valores máximos:") print(max_values) print("\nValores mínimos:") print(min_values)

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads