No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Regularizers

11/17
Recursos

Aportes 7

Preguntas 0

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Compa帽eros, supongo que en alg煤n momento arreglaran el problema de que la notebook que subieron no tiene la parte de regularizaci贸n, pero mientras tanto, hice una notebook en la cual explico la implementaci贸n de cada una de estas y explico un poco en que consisten, este tema lo explican a mayor profundidad en el Curso Profesional de Machine Learning con Scikit-Learn as铆 que no se preocupen si parece que no se ahonda mucho en el tema.
.
No siendo m谩s, adjunto el link a la notebook Aqu铆
(La parte de regularizaci贸n se encuentra al final)

El notebook que se deja muestra lo mismo que se vio en las clases, no hay ninguna aplicaci贸n extra de como se usa un regularizador dentro de un modelo de regresi贸n log铆stica

La regularizaci贸n L1 y L2 son los modelos Lasso y Ridge, respectivamente, para disminuir la complejidad del modelo y eliminar variables. En el Curso Profesional de Machine Learning con Scikit-Learn con Ariel Ortiz se presentan estos conceptos y otros adicionales como ElasticNet.

L1 y L2 son la misma referencia de las normas de vectores del mismo nombre donde L1 obtiene el valor absoluto de la suma de todos sus componentes y L2 obtiene la ra铆z cuadrada de la suma de todos sus componentes!

Hola buena noche, quisiera dejar un link para comprender mejor el tema y profundizar en este:
https://www.cienciadedatos.net/documentos/py14-ridge-lasso-elastic-net-python.html

Recuerden, que para mejorar pueden investigar por su cuenta 馃挭馃挭馃挭馃挭馃挭馃挭馃挭.

import joblib

class Utils:

    def load_from_csv(self, path):
        return pd.read_csv(path)

    def load_from_mysql(self):
        pass

    def features_target(self, dataset, drop_cols, var_predict):
        X = dataset.drop(drop_cols, axis=1)
        y = dataset[var_predict]
        return X, y

    def model_export(self, clf, score):
        print(score)
        joblib.dump(clf, './models/best_model.pkl')
import numpy as np

from sklearn.model_selection import GridSearchCV


class Models:

    def __init__(self):
        # Grid for classifier
        self.reg_classifier = {
            'LogisticRegressionelasticnet': LogisticRegression(max_iter=100000),
        }

        self.params_classifier = {
            'LogisticRegressionelasticnet': {
                'penalty': ['elasticnet'],
                'solver': ['saga'],
                'l1_ratio': np.arange(0,1,0.01),
            },
        }

        # Grid for regression
        self.reg_regression = {}
        self.params_regression = {}

    def grid_training_classifier(self, X, y):

        best_score = 999
        best_model = None

        for name, reg in self.reg_classifier.items():

            grid_reg = GridSearchCV(reg, self.params_classifier[name], cv=3).fit(X, y.values.ravel())
            score = np.abs(grid_reg.best_score_)

            if score < best_score:
                best_score = score
                best_model = grid_reg.best_estimator_

        utils = Utils()
        utils.model_export(best_model, best_score)

models = Models()
models.grid_training_classifier(x_rsmote, y_rsmote)

Tambi茅n se pueden llevar sa num茅rico usando LabelEncoder