Overfitting
Notas:
- una indicación de que existe sobreentrenaminto es cuando a medida de que se va aumentando la complejidad de la red neuronal, el set de entrenamiento se ajusta muchísimo a la función y el set de prueba empieza a diverger.
- Una opción para evitar el overfitting consiste en detener el entrenamiento justo cuando se identifique un amplio gap de separación entre set de prueba y entrenamiento.
- Alta varianza y bajo bias --> overfitting
- Baja varianza y alta bias --> underfitting.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?