Aprender los conceptos clave

1

Todo lo que aprenderás sobre MA con Scikit-Learn

2

¿Cómo aprenden las máquinas?

3

Problemas que podemos resolver con Scikit-learn

4

Las matemáticas que vamos a necesitar

Iniciar un proyecto con sklearn

5

Configuración de nuestro entorno Python

6

Instalación de librerías en Python

7

Datasets que usaremos en el curso

Optimización de features

8

¿Cómo afectan nuestros features a los modelos de Machine Learning?

9

Introducción al PCA

10

Preparación de datos para PCA e IPCA

11

Implementación del algoritmo PCA e IPCA

12

Kernels y KPCA

13

¿Qué es la regularización y cómo aplicarla?

14

Implementación de Lasso y Ridge

15

Explicación resultado de la implementación

16

ElasticNet: Una técnica intermedia

Regresiones robustas

17

El problema de los valores atípicos

18

Regresiones Robustas en Scikit-learn

19

Preparación de datos para la regresión robusta

20

Implementación regresión robusta

Métodos de ensamble aplicados a clasificación

21

¿Qué son los métodos de ensamble?

22

Preparación de datos para implementar métodos de ensamble

23

Implementación de Bagging

24

Implementación de Boosting

Clustering

25

Estrategias de Clustering

26

Implementación de Batch K-Means

27

Implementación de Mean-Shift

Optimización paramétrica

28

Validación de nuestro modelo usando Cross Validation

29

Implementación de K-Folds Cross Validation

30

Optimización paramétrica

31

Implementación de Randomized

32

Bonus: Auto Machine Learning

Salida a producción

33

Revisión de nuestra arquitectura de código

34

Importar y exportar modelos con Sklearn

35

Creación de una API con Flask para el modelo

36

Cierre del curso

37

Material adicional para consultar

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Convierte tus certificados en títulos universitarios en USA

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

19 Días
12 Hrs
41 Min
26 Seg

Preparación de datos para la regresión robusta

19/37
Recursos

Aportes 15

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Mediante el parámetro C, podemos controlar la penalización por error en la clasificación. Si C tiene valores amplios entonces, se penaliza de forma más estricta los errores, mientras que si escogemos un C pequeño seremos menos estrictos con los errores.
En otras palabras, si C es pequeño aumenta el sesgo y disminuye la varianza del modelo.

Creo que otra columna que debemos eliminar debería ser el RANK porque va a darle mucho peso a esa variable ya que es un orden numérico, no un valor o dato registrado. No sé si me hice entender

me esta gustando el curso 😃, veamos que mas sigue

Para importar varios paquetes del mismo modulo no son necesarios los paréntesis, se puede importar como:

from sklearn.linear_model import RANSACRegressor, HuberRegressor

En mi opinión también deberíamos quitar el Rank de el modelo predictivo ya que en la realidad es poco probable que contemos con ese dato si es que queremos predecir el score de felicidad de un país y es redundante, el score dará como resultado el rank pero comparado con otros países, no debería ser parte del modelo.

Otros ejemplos

19. Preparación de datos para la regresión robusta

import pandas as pd 

from sklearn.linear_model import (
    RANSACRegressor,
    HuberRegressor,
)
from sklearn.svm import SVR

from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error

if __name__ == '__main__':
    # Load the dataset
    df = pd.read_csv('./data/felicidad_corrupt.csv')
    print(df.head())

    # Split the dataset into features (X) and target (y)
    X = df.drop(['country', 'score'], axis=1)
    y = df[['score']]

    # Split the dataset into training and testing sets
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

    # Define the regression models to use
    estimators = {
        'SVR': SVR(gamma='auto', C=1.0, epsilon=0.1),
        'RANSAC': RANSACRegressor(),
        'HUBER': HuberRegressor(epsilon=1.35)
    }

dataset.head() de forma predeterminada nos muestra las 5 primeras filas, por ende, no es necesario ponerle el 5.

eL CÓDIGO PARA EL QUE LO NECESITE

import pandas as pd
from sklearn.linear_model import RANSACRegressor, HuberRegressor
from sklearn.svm import SVR 
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
if __name__ == "__main__":
 # Cargamos los datos del dataframe de pandas
 dt_heart = pd.read_csv('./datos/whr2017.csv', sep=';')
 print(dt_heart.head(10))

X = dt_heart.drop(["country","score"],axis=1)
Y = dt_heart["score"]

X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.3, random_state=42)

estimadores = {
 'SVR':SVR(gamma='auto',c=1.0,epsilo=0.1),
 'RANSAC': RANSACRegressor(),
 'Huber': HuberRegressor(epsilon=1.35)
}

que es un estimador???

Dejo este código para que lo prueben: ```python import pandas as pd from sklearn.linear_model import (RANSACRegressor, HuberRegressor) from sklearn.svm import SVR from sklearn.model_selection import train_test_split from sklearn.metrics import mean_squared_error if __name__ == "__main__": data = pd.read_csv('./data/felicidad_corrupt.csv') X = data.drop(['country','score'], axis=1) Y = data[['score']] X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.3, random_state=42) estimators = { 'SVR': SVR(gamma='auto', C=1.0, epsilon=0.1), 'RANSAC': RANSACRegressor(), 'HUBER': HuberRegressor(epsilon=1.35)} for name, estimator in estimators.items(): print(f"Entrenando y evaluando el modelo: {name}") estimator.fit(X_train, Y_train) Y_pred = estimator.predict(X_test) mse = mean_squared_error(Y_test, Y_pred) print(f"MSE para {name}: {mse}\n") ```

La preparación de datos es una parte crucial en el proceso de regresión robusta, al igual que en cualquier otro tipo de análisis estadístico o de machine learning

Importamos las bibliotecas

import pandas as pd
from sklearn.linear_model import (
RANSACRegressor, HuberRegressor
)
from sklearn.svm import SVR
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error

if name == “main”:

# Importamos el dataset 

dataset = pd.read_csv(’./data/felicidad_corrupt.csv’)
# Mostramos el reporte estadistico
print(dataset.describe())

X = dataset.drop([‘country’, ‘score’], axis=1)
y = dataset[[‘score’]]

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

estimadores = {
‘SVR’ : SVR(gamma=‘auto’, C=1.0, epsilon=0.1),
‘RANSAC’ : RANSACRegressor(),
‘HUBER’ : HuberRegressor(epsilon=1.35)
}

Creo que si debimos quitar la columna rank O_0