Crea una cuenta o inicia sesión

¡Continúa aprendiendo sin ningún costo! Únete y comienza a potenciar tu carrera

Entrenando nuestra primera red convolucional

5/25
Recursos

Aportes 11

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Hola¡
Les traigo un método alternativo para desarrollar esta red neuronal, con este método no usarán categorical_crossentropy ni
from tensorflow.keras.utils import to_categorical, ni tampoco “softmax” en la ultima capa Dense, en cambio solo usarán SparseCategoricalCrossEntropy. El codigo es el siguiente:

Trate con 15 y con 20 epochs pero sigue dando el mismo resultado

Si están haciendo el proceso desde su pc en local y no tienen una gpu Nvidia, pueden utilizar un backend como PlaidML.

Lo que observo es que a mayor épocas, se reduce la precisión del algoritmo.

yo probe con 10, 25 y 50, y estos fueron mis resultados:

10 [0.28235912322998047, 0.9017999768257141]
25 [0.36978527903556824, 0.8761000037193298]
50 [0.43726015090942383, 0.8583999872207642]

Como aporte, yo lo hice con la CPU de mi computadora, obtuve 0.08923 de accuracy con 10 epchs

Estuve evaluando el accuracy aumentando las epocas y pude ver que, a pesar del ruido, la tendencia es a aumentar, teniendo el pico maximo en la 93.
Les dejo las graficas quie consegui con 50 y 100 epocas:
50 epochs

100 epochs

Mis Resultados

Epoch 1/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 5s 4ms/step - accuracy: 0.9922 - loss: 0.0249
Epoch 2/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9943 - loss: 0.0185
Epoch 3/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9952 - loss: 0.0148
Epoch 4/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9963 - loss: 0.0115
Epoch 5/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9974 - loss: 0.0088
Epoch 6/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9973 - loss: 0.0080
Epoch 7/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9981 - loss: 0.0058
Epoch 8/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9984 - loss: 0.0047
Epoch 9/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9985 - loss: 0.0056
Epoch 10/10
938/938 ━━━━━━━━━━━━━━━━━━━━ 2s 2ms/step - accuracy: 0.9991 - loss: 0.0030
<keras.src.callbacks.history.History at 0x7f65a80e5ea0>
[0.04491740092635155, 0.9926000237464905]
😽😽

obtuve 91.5% de precision, batch size de 100 y 15 epocas
PD: no se como subir imagenes D:

Sin validation split, resultado de evaluación:
[0.2683935761451721, 0.9047999978065491]

Con validation split=0.2, resultado de evaluación:
[0.24510954320430756, 0.9143000245094]

Esto confirma por qué tan importante es usar data de validación en el entrenamiento de nuestro modelo (como ya se vió en el curso de Fundamentos de Redes neuronales) 😄