Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

Reducción de dimensionalidad con PCA

23/25
Recursos

Aportes 21

Preguntas 20

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Hola a todos, en esta clase en el minuto 10:57 cuando escribo nuevas columnas para las variables reducidas en realidad tenia que escribir:

iris['pca_1'] = reduced_scaled[:, 0]
iris['pca_2'] = reduced_scaled[:, 1]

para quelo tengan en cuenta, porque la idea erá usar ya las variables reducidas !

Me pareció brutal este curso, mucho más de lo que esperaba, y esta última parte de PCA lejos lo mejor, gran profesor Francisco Camacho

¡Excelente explicación y que belleza de curso 💚! En mis clases de econometría basica y media no llegué a ver la reducción de dimensionalidad, pero veo que es muy importante para entrenar los modelos. Me voy muy contento a tomar el siguiente paso: https://platzi.com/cursos/algebra-lineal/ 😎.

Si bien ya había trabajado con pipelines en Data Science & Machine Learning crudos, desde 0 hasta entrenar un modelo de ML, ese curso me esclareció aún más las cosas.
Me encantó la forma en que le dio hincapié el Profe Pacho a que la estadística y otras ramas de las mates que están implícitas en el mundo de la Ciencia de datos.

con la scala reducida

iris['pca_11'] = reduced_scaled[:,0]
iris['pca_22'] = reduced_scaled[:,1]
sns.jointplot(iris['pca_11'], iris['pca_22'], hue=iris['species'])

Excelente curso, amé Deepnote.

Simplemente brutal, más cursos con este profesor por favor!

Realmente este curso es uno de los mejores y fundamental en esta ruta de aprendizaje para data science, y ademas muestra la importancia de bases estadísticas, matemáticas. gracias profe!!! buen curso.

  • Descomposion con Python

    utilizamos el metodo eig para la descomposion inmediata de los valores propios

    import numpy as np 
    import pandas as pd 
    import matplotlib.pyplot as plt
    import seaborn as sns
    from sklearn.preprocessing import StandardScaler
    
    iris = sns.load_dataset('iris')
    
    scaler = StandardScaler()
    scaled = scaler.fit_transform(
        iris[['sepal_length', 'sepal_width', 'petal_length', 'petal_width']].values
        )
    
    covariance_matrix = np.cov(scaled.T)
    covariance_matrix
    
    eigen_values, eigen_vectors = np.linalg.eig(covariance_matrix)
    
    eigen_values
    
    eigen_vectors
    
    • Cada vector propio captan la mayor cantidad de varianza de los datos principales
  • PCA

    sklearn.decomposition.PCA

    from sklearn.decomposition import PCA
    
    pca = PCA(n_components=2)
    pca.fit(scaled)
    
    pca.explained_variance_ratio_
    
    

    Para iniciar la reducción

    variance_explained = []
    for i in eigen_values:
        variance_explained.append((i/sum(eigen_values))*100)
    
    print(variance_explained)
    
    // respuesta//
    
    [72.9624454132999, 22.850761786701725, 3.6689218892828612, 0.5178709107154993]
    
    reduced_scaled = pca.transform(scaled)
    
    iris['pca_1'] = scaled[:,0]
    iris['pca_2'] = scaled[:,1]
    sns.jointplot(iris['pca_1'], iris['pca_2'], hue = iris['species'])
    

Un super curso que te permite ver la manera de procesar los datos. La explicacion del profesor es muy buena y entendible. Ahora queda aplicar lo aprendido. Nunca dejes de practicar, nunca dejes de aprender.

Este curso fue excelente, entendí la importancia de los fundamentos matematicos, en especial algebraicos para el mundo de la ciencia de datos.

Gran profesor Francisco, calmado y claro en sus explicaciones.

Ahora a profundizar más sobre todo este tema.

El minuto 8 en adelante es confuso en la explicación del PCA

Gran curso!!! 😄

Qué excelente curso de Data Science, que lo que deja es ganar de aplicar todo lo aprendido y sobre todo nunca parar de aprender ❤️

Creo que más adelante tendré que regresar porque aún no lo domino bien. Pero explicas super bien!

Seria optimo usar reduced_scaled, asi se ve como lo dejo el profe y como seria con esta otra matriz

Wow todas las capacidades que yiene Sklearn con PCA

Excelente curso!! Me ha aclarado muchísimas dudas y cosas que pasaba por alto con respecto a pre procesamiento de los datos. Muchísimas gracia profe por las explicaciones!!! Curto TOP TOP TOP!

Para complementar la implementación del algoritmo de PCA, el curso de machine learning con Scikit-Learn https://platzi.com/clases/1796-scikitlearn-ml/25647-introduccion-al-pca/ explicado de una manera muy práctica.

Cuantos datos ahorre y cuanto ahorre de tiempo en mi modelo??

Asi fue como lo presento el profe

iris['pca_1'] = scaled[:,0]
iris['pca_2'] = scaled[:,1]
sns.jointplot(iris['pca_1'], iris['pca_2'], hue=iris['species'])