Redes convolucionales y su importancia

1

La importancia del computer vision

2

驴Qu茅 herramientas usaremos para redes neuronales convolucionales?

3

驴Qu茅 son las redes convolucionales?

Mi primera red neuronal convolucional

4

Creando nuestra primera red convolucional

5

Entrenando nuestra primera red convolucional

Manejo de im谩genes

6

Consejos para el manejo de im谩genes

7

Manejo de im谩genes con Python

Fundamentos de redes neuronales convolucionales

8

Kernel en redes neuronales

9

El kernel en acci贸n

10

Padding y Strides

11

Capa de pooling

12

Arquitectura de redes convolucionales

Quiz: Fundamentos de redes neuronales convolucionales

Resolviendo un problema de clasificaci贸n

13

Clasificaci贸n con redes neuronales convolucionales

14

Creaci贸n de red convolucional para clasificaci贸n

15

Entrenamiento de un modelo de clasificaci贸n con redes convolucionales

Optimizaci贸n de red neuronal convolucional

16

Data augmentation

17

Aplicando data augmentation

18

Callbacks: early stopping y checkpoints

19

Batch normalization

20

Optimizaci贸n de modelo de clasificaci贸n

21

Entrenamiento de nuestro modelo de clasificaci贸n optimizado

Quiz: Optimizaci贸n de red neuronal convolucional

Resolviendo una competencia de Kaggle

22

Clasificando entre perros y gatos

23

Entrenamiento del modelo de clasificaci贸n de perros y gatos

Resumen y siguientes pasos

24

Siguientes pasos con redes neuronales convolucionales

25

Comparte tu proyecto de clasificaci贸n con redes convolucionales y certif铆cate

Crea una cuenta o inicia sesi贸n

隆Contin煤a aprendiendo sin ning煤n costo! 脷nete y comienza a potenciar tu carrera

Entrenando nuestra primera red convolucional

5/25
Recursos

Aportes 8

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Hola隆
Les traigo un m茅todo alternativo para desarrollar esta red neuronal, con este m茅todo no usar谩n categorical_crossentropy ni
from tensorflow.keras.utils import to_categorical, ni tampoco 鈥渟oftmax鈥 en la ultima capa Dense, en cambio solo usar谩n SparseCategoricalCrossEntropy. El codigo es el siguiente:

Lo que observo es que a mayor 茅pocas, se reduce la precisi贸n del algoritmo.

Trate con 15 y con 20 epochs pero sigue dando el mismo resultado

yo probe con 10, 25 y 50, y estos fueron mis resultados:

10 [0.28235912322998047, 0.9017999768257141]
25 [0.36978527903556824, 0.8761000037193298]
50 [0.43726015090942383, 0.8583999872207642]

Si est谩n haciendo el proceso desde su pc en local y no tienen una gpu Nvidia, pueden utilizar un backend como PlaidML.

Estuve evaluando el accuracy aumentando las epocas y pude ver que, a pesar del ruido, la tendencia es a aumentar, teniendo el pico maximo en la 93.
Les dejo las graficas quie consegui con 50 y 100 epocas:
50 epochs

100 epochs

obtuve 91.5% de precision, batch size de 100 y 15 epocas
PD: no se como subir imagenes D:

Como aporte, yo lo hice con la CPU de mi computadora, obtuve 0.08923 de accuracy con 10 epchs