Aprender los conceptos clave

1

Todo lo que aprenderás sobre MA con Scikit-Learn

2

¿Cómo aprenden las máquinas?

3

Problemas que podemos resolver con Scikit-learn

4

Las matemáticas que vamos a necesitar

Iniciar un proyecto con sklearn

5

Configuración de nuestro entorno Python

6

Instalación de librerías en Python

7

Datasets que usaremos en el curso

Optimización de features

8

¿Cómo afectan nuestros features a los modelos de Machine Learning?

9

Introducción al PCA

10

Preparación de datos para PCA e IPCA

11

Implementación del algoritmo PCA e IPCA

12

Kernels y KPCA

13

¿Qué es la regularización y cómo aplicarla?

14

Implementación de Lasso y Ridge

15

Explicación resultado de la implementación

16

ElasticNet: Una técnica intermedia

Regresiones robustas

17

El problema de los valores atípicos

18

Regresiones Robustas en Scikit-learn

19

Preparación de datos para la regresión robusta

20

Implementación regresión robusta

Métodos de ensamble aplicados a clasificación

21

¿Qué son los métodos de ensamble?

22

Preparación de datos para implementar métodos de ensamble

23

Implementación de Bagging

24

Implementación de Boosting

Clustering

25

Estrategias de Clustering

26

Implementación de Batch K-Means

27

Implementactión de Mean-Shift

Optimización paramétrica

28

Validación de nuestro modelo usando Cross Validation

29

Implementación de K-Folds Cross Validation

30

Optimización paramétrica

31

Implementación de Randomized

32

Bonus: Auto Machine Learning

Salida a producción

33

Revisión de nuestra arquitectura de código

34

Importar y exportar modelos con Sklearn

35

Creación de una API con Flask para el modelo

36

Cierre del curso

37

Material adicional para consultar

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

¿Qué son los métodos de ensamble?

21/37
Recursos

Aportes 18

Preguntas 4

Ordenar por:

Los aportes, preguntas y respuestas son vitales para aprender en comunidad. Regístrate o inicia sesión para participar.

Una vez se me ocurrió tomar varios métodos de Machine Learning para regresión y al final utilizaba un regresión lineal con las salida de los métodos para mejorar una predicción y equilibrar el error entre métodos.
🚀
He utilizado métodos de ensamble, sobre todo el Gradient Boosting Tree, lo considero muy potente y en la mayoría de los casos con solo tutearlo un poco el modelo genera unas excelentes predicciones. Por otra parte he usado el XGBoost, y me parece también un super método para hacer aproximaciones.
🤓
También me he usado LightGBM cuando estoy empezando con modelos baseline, esto para el caso de hacer Feature Engineering.
🤖

Diferencias entre bagging y boosting

Referencia:

No había escuchado de los métodos de ensamble hasta hoy.
toy chiquito en ML 😦

No conocía mucho de estas estrategias. Normalmente lo que hacia es dependiendo del problema, tomar varios métodos que fueran pertinentes y probarlos , para ver con cual se conseguía un buen accuracy.

un proceso de ML tiene 3 partes

  1. limpiar el data sets

  2. entrenar a modelos y ver cuales son los mejores

  3. Ensamblar los mejores modelos

En este momento recomiendo mucho los cursos que hay en Kaggle Son cursos cortos pero muy buenos porque contemplan muchos temas de ML, Data Science, etc.
https://www.kaggle.com/learn/overview

La única experiencia que he tenido con modelos de ensamble fue la que adquirí en el Curso de ML aplicado con Python. Me gusto bastante.

Estoy aprendiendo un montón.

No sabía acerca de los métodos de ensamble, para llegar a un consenso de método de ML lo hacía mediante el score y el error.

Me parece muy interesante la técnica de boosting, siempre prevé varios modelos bien entrenados de manera independiente y luego yo tomaba una decisión. Ahora tengo una herramienta mucho más poderosa.

Bagging and Boosting are both ensemble methods in Machine Learning, but what’s the key behind them?

https://quantdare.com/what-is-the-difference-between-bagging-and-boosting/#:~:text=Both are good at reducing,while Boosting can increase it.

Incluiria otra estrategia, aunque no seria la mejor opcion, tomar varios modelos y quedarme con el que tiene mayor exactitud en prediccion, seria una alternativa simple cuando entre varios modelos la exactitud es muy alta y aceptable, y ya no evaluaria los ensambles, es decir, si estoy a gusto con exactitud arriba del 98% por ejemplo, pero dependeria de la relevancia, si estoy evauando la eficacia de un fertilizante o si es la seguridad que el auto evite los accidentes, en este ultimo no seria aceptable un 98% de exactitud.

En mi experiencia, he usado un análisis exploratorio con la función GridSearchCV | Sklearn. Con esto se evalúan distintos modelos y la combinación de sus hiperparámetros a través de una validación cruzada K-Fold. Esto se hace para distintos proporciones de datos para Train y Test, obteniendo un resultado como el siguiente
.

.
La información se guarda y se ordena en un DataFrame y se ordena por el puntaje de prueba final obtenido.
.

.
El ejemplo completo se puede ver en el clasificador para predecir la benignidad o malignidad de un tumor.

Los modelos de tipo Boosting me suenan en ingeniería de control a los modelos de lazo cerrado que poseen una retroalimentación y van iterando hasta ir reduciendo el error.

ninguna jajajaj esta es la primera vez que escucho de estás estrategias

Sin experiencia en métodos de ensamble

Este post me ayudó mucho a entender el funcionamiento de los métodos de ensamble, espero les sirva: https://www.pluralsight.com/guides/ensemble-methods:-bagging-versus-boosting

Primera vez que usare estos metodos 😮