No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Regularizers

11/17
Recursos

Aportes 7

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Compañeros, supongo que en algún momento arreglaran el problema de que la notebook que subieron no tiene la parte de regularización, pero mientras tanto, hice una notebook en la cual explico la implementación de cada una de estas y explico un poco en que consisten, este tema lo explican a mayor profundidad en el Curso Profesional de Machine Learning con Scikit-Learn así que no se preocupen si parece que no se ahonda mucho en el tema.
.
No siendo más, adjunto el link a la notebook Aquí
(La parte de regularización se encuentra al final)

El notebook que se deja muestra lo mismo que se vio en las clases, no hay ninguna aplicación extra de como se usa un regularizador dentro de un modelo de regresión logística

La regularización L1 y L2 son los modelos Lasso y Ridge, respectivamente, para disminuir la complejidad del modelo y eliminar variables. En el Curso Profesional de Machine Learning con Scikit-Learn con Ariel Ortiz se presentan estos conceptos y otros adicionales como ElasticNet.

L1 y L2 son la misma referencia de las normas de vectores del mismo nombre donde L1 obtiene el valor absoluto de la suma de todos sus componentes y L2 obtiene la raíz cuadrada de la suma de todos sus componentes!

Hola buena noche, quisiera dejar un link para comprender mejor el tema y profundizar en este:
https://www.cienciadedatos.net/documentos/py14-ridge-lasso-elastic-net-python.html

Recuerden, que para mejorar pueden investigar por su cuenta 💪💪💪💪💪💪💪.

import joblib

class Utils:

    def load_from_csv(self, path):
        return pd.read_csv(path)

    def load_from_mysql(self):
        pass

    def features_target(self, dataset, drop_cols, var_predict):
        X = dataset.drop(drop_cols, axis=1)
        y = dataset[var_predict]
        return X, y

    def model_export(self, clf, score):
        print(score)
        joblib.dump(clf, './models/best_model.pkl')
import numpy as np

from sklearn.model_selection import GridSearchCV


class Models:

    def __init__(self):
        # Grid for classifier
        self.reg_classifier = {
            'LogisticRegressionelasticnet': LogisticRegression(max_iter=100000),
        }

        self.params_classifier = {
            'LogisticRegressionelasticnet': {
                'penalty': ['elasticnet'],
                'solver': ['saga'],
                'l1_ratio': np.arange(0,1,0.01),
            },
        }

        # Grid for regression
        self.reg_regression = {}
        self.params_regression = {}

    def grid_training_classifier(self, X, y):

        best_score = 999
        best_model = None

        for name, reg in self.reg_classifier.items():

            grid_reg = GridSearchCV(reg, self.params_classifier[name], cv=3).fit(X, y.values.ravel())
            score = np.abs(grid_reg.best_score_)

            if score < best_score:
                best_score = score
                best_model = grid_reg.best_estimator_

        utils = Utils()
        utils.model_export(best_model, best_score)

models = Models()
models.grid_training_classifier(x_rsmote, y_rsmote)

También se pueden llevar sa numérico usando LabelEncoder