No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Problemas a resolver: performance de modelo

5/8
Recursos

Aportes 2

Preguntas 0

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

Lo mejor que pude optimizar el modelo fue con los siguientes parametros:

logreg_model = LogisticRegression(penalty='l1', solver='liblinear', random_state=42, C=0.01)

Me dio las siguientes m茅tricas:

Accuracy: 0.8105
Precision: 0.7692307692307693
Recall: 0.05089058524173028
ROC AUC: 0.5235784600135223

Yo creo que la regresi贸n log铆stica no es el modelo m谩s eficiente en este caso en espec铆fico.

Recomiendo hacer un OneHot Encoding y un MinMax Scaling.

# Importamos las librer铆as necesarias 

from sklearn.preprocessing import OneHotEncoder
from sklearn.compose import make_column_transformer
from sklearn.preprocessing import MinMaxScaler

# Copiamos el dataset original
data_df=data.copy()

# Separamos la variable de respuesta de los datos que tenemos disponibles
y = data_df.pop(data_df.columns[-1])

# Realizamos edl OneHotEncoder sobre las variables categ贸ricas

categorical_columns = data_df.select_dtypes(object).columns

categorical_transformer = make_column_transformer(
    (OneHotEncoder(), categorical_columns),
    remainder="passthrough"
)

transformed_df = (
    pd.DataFrame(
        categorical_transformer.fit_transform(data_df),
        columns = categorical_transformer.get_feature_names_out(),
        index = data_df.index
    )
    .rename_columns(
        function = lambda x: x.removeprefix("ordinalencoder__")
    )
    .rename_columns(
        function = lambda x: x.removeprefix("onehotencoder__")
    )
    .rename_columns(
        function = lambda x: x.removeprefix("remainder__")
    )
)

# Realizamos el MinMaxScaler para normalizar los datos

scaler=MinMaxScaler()
df_scaled=scaler.fit_transform(transformed_df)
df_scaled=pd.DataFrame(df_scaled,columns=transformed_df.columns)
df_scaled.head()

Una vez resuelto aquello, implement茅 una red neuronal sobre el modelo original.
Us茅 esta arquitectura:

Y los resultados fueron los siguientes:
鈥榓ccuracy鈥: 0.858,
鈥榩recision鈥: 0.6981818181818182,
鈥榬ecall鈥: 0.48854961832061067,
鈥榝1score鈥: 0.5748502994011976.

Creo que podr铆a encontrarse una mejor arquitectura y/o enriquecer m谩s los datos. Cualquier comentario se agradece.