Crea una cuenta o inicia sesión

¡Continúa aprendiendo sin ningún costo! Únete y comienza a potenciar tu carrera

Entrenando nuestra primera red convolucional

5/25
Recursos

Aportes 8

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Hola¡
Les traigo un método alternativo para desarrollar esta red neuronal, con este método no usarán categorical_crossentropy ni
from tensorflow.keras.utils import to_categorical, ni tampoco “softmax” en la ultima capa Dense, en cambio solo usarán SparseCategoricalCrossEntropy. El codigo es el siguiente:

Lo que observo es que a mayor épocas, se reduce la precisión del algoritmo.

Trate con 15 y con 20 epochs pero sigue dando el mismo resultado

yo probe con 10, 25 y 50, y estos fueron mis resultados:

10 [0.28235912322998047, 0.9017999768257141]
25 [0.36978527903556824, 0.8761000037193298]
50 [0.43726015090942383, 0.8583999872207642]

Si están haciendo el proceso desde su pc en local y no tienen una gpu Nvidia, pueden utilizar un backend como PlaidML.

Estuve evaluando el accuracy aumentando las epocas y pude ver que, a pesar del ruido, la tendencia es a aumentar, teniendo el pico maximo en la 93.
Les dejo las graficas quie consegui con 50 y 100 epocas:
50 epochs

100 epochs

obtuve 91.5% de precision, batch size de 100 y 15 epocas
PD: no se como subir imagenes D:

Como aporte, yo lo hice con la CPU de mi computadora, obtuve 0.08923 de accuracy con 10 epchs