Redes convolucionales y su importancia

1

La importancia del computer vision

2

¬ŅQu√© herramientas usaremos para redes neuronales convolucionales?

3

¬ŅQu√© son las redes convolucionales?

Mi primera red neuronal convolucional

4

Creando nuestra primera red convolucional

5

Entrenando nuestra primera red convolucional

Manejo de im√°genes

6

Consejos para el manejo de im√°genes

7

Manejo de im√°genes con Python

Fundamentos de redes neuronales convolucionales

8

Kernel en redes neuronales

9

El kernel en acción

10

Padding y Strides

11

Capa de pooling

12

Arquitectura de redes convolucionales

Quiz: Fundamentos de redes neuronales convolucionales

Resolviendo un problema de clasificación

13

Clasificación con redes neuronales convolucionales

14

Creación de red convolucional para clasificación

15

Entrenamiento de un modelo de clasificación con redes convolucionales

Optimización de red neuronal convolucional

16

Data augmentation

17

Aplicando data augmentation

18

Callbacks: early stopping y checkpoints

19

Batch normalization

20

Optimización de modelo de clasificación

21

Entrenamiento de nuestro modelo de clasificación optimizado

Quiz: Optimización de red neuronal convolucional

Resolviendo una competencia de Kaggle

22

Clasificando entre perros y gatos

23

Entrenamiento del modelo de clasificación de perros y gatos

Resumen y siguientes pasos

24

Siguientes pasos con redes neuronales convolucionales

25

Comparte tu proyecto de clasificación con redes convolucionales y certifícate

No tienes acceso a esta clase

¬°Contin√ļa aprendiendo! √önete y comienza a potenciar tu carrera

Callbacks: early stopping y checkpoints

18/25
Recursos

Aportes 5

Preguntas 3

Ordenar por:

¬ŅQuieres ver m√°s aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Hay que tener mucho cuidado a la hora de copiar arquitecturas de red con la asignación, esto puede traer consecuencias inesperadas que son muy difíciles de depurar, a mí me pasó y les vengo a contar un poco.

Para resumir, cuando quieran crear una instancia de una red ya generada EVITEN a toda costa usar la asignación.

model2 = model1

Esto copiar√° la direcci√≥n de memoria del objeto model1 a model2, ¬Ņqu√© significa esto? Que cuando modifiques model2, el primero tambi√©n se modificar√° dado que no son objetos nuevos sino apuntadores al mismo espacio de memoria (voy a dejar la explicaci√≥n en una respuesta).

En el caso del video no se nota totalmente, pero de manera inconsciente, al cargar los datos del hdf5 en model2, también se han cargado en model1.

La manera de copiar correctamente un modelo (porque se quiere mantener su arquitectura) sin generar un apuntador de memoria es con la función clone_model que viene de keras.models

from keras.models import clone_model
model2 = clone_model(model1)

Esto lo resalto por experiencia personal, dado que en mi proyecto personal copié una instancia de una red a otra, y cuando realiza el entrenamiento en el modelo 2, los datos del 1 se arruinaban y a la hora de probar el rendimiento siempre era inconsistente.

De todo el curso esta fue la clase que mas gusto, la uso cada vez que creo redes de regresiones y clasificaciones,e s super util ūüėÉ

UN INCREIBLE CURSO, MUY MUY CARGADO, DE VER CADA VIDEO VARIAS VECES, Y COMO SEA, ES UN GRAN CURSO, GRACIAS PLATZI POR DARNOS TAL NIVEL DE EDUCACION

Los callbacks se pueden definir como clases personalizadas que heredan de la clase base tf.keras.callbacks.Callback1 o se pueden usar algunos de los callbacks predefinidos que ofrece TensorFlow2. Algunos de los callbacks m√°s comunes son:

ModelCheckpoint: Guarda el modelo o los pesos en un archivo después de cada época o cuando se alcanza el mejor rendimiento en una métrica.
EarlyStopping: Detiene el entrenamiento cuando una m√©trica deja de mejorar despu√©s de un n√ļmero de √©pocas.
LearningRateScheduler: Cambia la tasa de aprendizaje seg√ļn una funci√≥n o un programa dado.
TensorBoard: Genera registros para visualizar el entrenamiento y el rendimiento del modelo en TensorBoard.
ReduceLROnPlateau: Reduce la tasa de aprendizaje cuando una métrica deja de mejorar.

me volaron la peluca estas cosas ūüėĄ