No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Entrenamiento y evaluación de regresión logística multiclase

15/17
Recursos

Aportes 5

Preguntas 3

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Una forma más sencilla de optimizar los hipeparámetros del modelo de Regresión Lineal es usando GridSearchCV

Esto también se usa para otros modelos de regresión y clasificación, lo que hizo el profesor es basicamente lo que hace este modelo por dentro, un loop de varios ciclos for

En la figura de abajo se puede observar el mejor acuracy obtenido , nótese que debería de ser 0.93 y no 0.99 como se muestra en el video por un ligero error al darle una columna extra al set de X el cual explique en la clase anterior.

El modelo clf ya se encuentra entrenado con los mejores hiperparámetros por lo que yase encuentra listo para hacer predicciones

Con este código podemos hacer que se muestre el scoring en la grafica de barras, para ver mejor el accuracy:

fig, ax1 = plt.subplots(figsize=(10,5))

ax = sns.barplot(
        ax=ax1,
        x  = params,
        y = scores
        )
ax.set_title('Beans Accuracy')
ax.set_xticklabels(labels = ax.get_xticklabels(), rotation=66)
ax.bar_label(ax.containers[0])
plt.show()

pensando que habia overfiting use cross validation para verificar:

from sklearn.model_selection import KFold
from sklearn.model_selection import cross_val_score

kfold = KFold(n_splits=5)

results = cross_val_score(model, X_test, y_test, cv=kfold)
print(results.mean())

0.9863479638430714

el score es muy similar, lo que nos indicaria que no hay Overfiting

Overfited but good class…

😄