Aprender los conceptos clave

1

Todo lo que aprenderás sobre MA con Scikit-Learn

2

¿Cómo aprenden las máquinas?

3

Problemas que podemos resolver con Scikit-learn

4

Las matemáticas que vamos a necesitar

Iniciar un proyecto con sklearn

5

Configuración de nuestro entorno Python

6

Instalación de librerías en Python

7

Datasets que usaremos en el curso

Optimización de features

8

¿Cómo afectan nuestros features a los modelos de Machine Learning?

9

Introducción al PCA

10

Preparación de datos para PCA e IPCA

11

Implementación del algoritmo PCA e IPCA

12

Kernels y KPCA

13

¿Qué es la regularización y cómo aplicarla?

14

Implementación de Lasso y Ridge

15

Explicación resultado de la implementación

16

ElasticNet: Una técnica intermedia

Regresiones robustas

17

El problema de los valores atípicos

18

Regresiones Robustas en Scikit-learn

19

Preparación de datos para la regresión robusta

20

Implementación regresión robusta

Métodos de ensamble aplicados a clasificación

21

¿Qué son los métodos de ensamble?

22

Preparación de datos para implementar métodos de ensamble

23

Implementación de Bagging

24

Implementación de Boosting

Clustering

25

Estrategias de Clustering

26

Implementación de Batch K-Means

27

Implementactión de Mean-Shift

Optimización paramétrica

28

Validación de nuestro modelo usando Cross Validation

29

Implementación de K-Folds Cross Validation

30

Optimización paramétrica

31

Implementación de Randomized

32

Bonus: Auto Machine Learning

Salida a producción

33

Revisión de nuestra arquitectura de código

34

Importar y exportar modelos con Sklearn

35

Creación de una API con Flask para el modelo

36

Cierre del curso

37

Material adicional para consultar

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Introducción al PCA

9/37
Recursos

Aportes 13

Preguntas 3

Ordenar por:

Los aportes, preguntas y respuestas son vitales para aprender en comunidad. Regístrate o inicia sesión para participar.

Comparto este vídeo, en el que se complementa más a fondo los fundamentos matemáticos y estadísticos del PCA:
https://www.youtube.com/watch?v=AniiwysJ-2Y&t=1117s

Introducción al algoritmo PCA (Principal Component Analysis)


¿Por qué usaríamos este algoritmo?

  • Porque en machine learning es normal encontrarnos con problemas donde tengamos una enorme cantidad de features en donde hay relaciones complejas entre ellos y con la variable que queremos predecir.

Pistas donde se puede utilizar un algoritmo PCA:

  • Nuestro dataset tiene un número alto de features y no todos sean significativos.
  • Hay una alta correlación entre los features.
  • Cuando hay overfiting.
  • Cuando implica un alto coste computacional.

¿En que consiste el algoritmo PCA?

Básicamente en reducir la complejidad del problema:

1.- Seleccionando solamente las variables relevantes.
2.- Combinándolas en nuevas variables que mantengan la información más importante (varianza de los features).


¿Cuales son pasos para llevar a cabo el algoritmo PCA?

1.- Calculamos la matriz de covarianza para expresar las relaciones entre nuestro features.
2.- Hallamos los vectores propios y valores propios de esta matriz, para medir la fuerza y variabilidad de estas relaciones.
3.- Ordenamos y escogemos los vectores propios con mayor variabilidad, esto es, aportan más información.


¿Qué hacer si tenemos una PC de bajos recursos?

  • Si tenemos un dataset demasiado exigente, podemos usar una variación como IPCA.
  • Si nuestros datos no tienen una estructura separable linealmente, y encontramos un KERNEL que pueda mapearlos podemos usar KPCA.

🔹 Usar PCA cuando:

  • Se tenga un dataset con muchos features.
  • Las relaciones entre las variables no sean linealmente separables o se tenga una alta correlación entre ellas.
  • El modelo presenta características de overfitting. (El PCA puede ser una posible solución).
  • Se tiene un buen modelo con buenos resultados pero su costo computacional es alto.

👉 El PCA principalmente selecciona variables relevantes y las combina en una nueva feature, que mantiene la información más importante y útil para el modelo. Ejemplo:

📌 Nota:
En el Curso de Álgebra Lineal Aplicada para Machine Learning se explican y se aplican muy bien estos conceptos.

Esto es lo que no se hablo en el curso de Algebra Lineal

Si su computador no tiene mucho poder de procesamiento, pueden usar Google Colab y Deepnote. Son jupiter notebooks pero desde el navegador lo ejecutamos

Nunca antes en mi vida me había visto en la necesidad de poner un video a velocidad 0.85x para seguir el razonamiento de un profesor😅 ¡Este curso es increíble!

¡Muchas gracias por tanto, Platzi!

Después de terminar el curso vuelvo a esta clase en respuesta a un proyecto real de trabajo en el cual tengo demasiados features en mi data frame y el modelo que hice no predice correctamente los objetivos.

Definitivamente era esto lo que me faltaba, que curso tan genial! 📝😃

Reducción de la dimensionalidad de variables en ML

PCA: Un problema que tiene features X y Y dado por una función no lineal f(X,Y) se simplifica proyectando X y Y en una función que contenga la información de ambos.
Ejemplo: recta donde se proyecta la coordenada X y coordenada Y, manteniéndose la varianza.

Este video esta en ingles pero explica el PCA de una manera más profunda y a detalle.
https://www.youtube.com/watch?v=fkf4IBRSeEc&list=PLMrJAkhIeNNRpsRhXTMt8uJdIGz9-X_1-&index=22&ab_channel=SteveBrunton

PCA
Es una técnica estadística no supervisada que se utiliza para examinar las interrelaciones entre un conjunto de variables. También se conoce como análisis factorial general donde la regresión determina una línea de mejor ajuste.