Redes convolucionales y su importancia

1

La importancia del computer vision

2

驴Qu茅 herramientas usaremos para redes neuronales convolucionales?

3

驴Qu茅 son las redes convolucionales?

Mi primera red neuronal convolucional

4

Creando nuestra primera red convolucional

5

Entrenando nuestra primera red convolucional

Manejo de im谩genes

6

Consejos para el manejo de im谩genes

7

Manejo de im谩genes con Python

Fundamentos de redes neuronales convolucionales

8

Kernel en redes neuronales

9

El kernel en acci贸n

10

Padding y Strides

11

Capa de pooling

12

Arquitectura de redes convolucionales

Quiz: Fundamentos de redes neuronales convolucionales

Resolviendo un problema de clasificaci贸n

13

Clasificaci贸n con redes neuronales convolucionales

14

Creaci贸n de red convolucional para clasificaci贸n

15

Entrenamiento de un modelo de clasificaci贸n con redes convolucionales

Optimizaci贸n de red neuronal convolucional

16

Data augmentation

17

Aplicando data augmentation

18

Callbacks: early stopping y checkpoints

19

Batch normalization

20

Optimizaci贸n de modelo de clasificaci贸n

21

Entrenamiento de nuestro modelo de clasificaci贸n optimizado

Quiz: Optimizaci贸n de red neuronal convolucional

Resolviendo una competencia de Kaggle

22

Clasificando entre perros y gatos

23

Entrenamiento del modelo de clasificaci贸n de perros y gatos

Resumen y siguientes pasos

24

Siguientes pasos con redes neuronales convolucionales

25

Comparte tu proyecto de clasificaci贸n con redes convolucionales y certif铆cate

No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Batch normalization

19/25
Recursos

Aportes 2

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Falt贸 el 鈥減lattttziiii鈥 al inicio del video

Batch Normalizacion

Es una herramienta que facilita mucho el descenso del gradiente y optimiza las redes convolucionales.

La normalizaci贸n es un procedimiento llevado a cabo sobre un conjunto de datos que busca estandarizar sus valores, reducir la cantidad de n煤meros que lo compone y en una escala homog茅nea de datos ayudando al descenso del gradiente 鈥減ara converger mucho m谩s r谩pido 鈥 cuando se ejecuta el 鈥淏ackpropagation鈥 .

  • Valores peque帽os: t铆picamente entre 0 a 1

  • Data homog茅nea: todos los p铆xeles tienen datos en el mismo rango.

Tambi茅n, se puede dentro de las capas ocultas de la red neuronal llevar a cabo una normalizaci贸n para as铆 estandarizarla, a este proceso se le conoce como: 鈥淏atch Normalization鈥.

Sigue la misma l贸gica matem谩tica de cualquier normalizaci贸n:

  • Agrupo por lotes o 鈥渂atches鈥 dentro del mismo entrenamiento de la red neuronal, en consecuencia, obtengo la media del conjunto de entrenamiento.

  • Luego obtengo la varianza o desviaci贸n est谩ndar

  • Luego a cada lote le resto la media y lo divido entre la desviaci贸n est谩ndar. Este procedimiento se usa en la normalizaci贸n de cualquier tipo de problema y as铆 mismo ocurre dentro de la instancia en la red neural de las capas ocultas.

  • Consiguiendo como resultado que sea una data estandarizada incluso dentro del entrenamiento dentro de la red ayudando a converger el algoritmo.