Aprender conceptos iniciales de Deep Learning

1

¿Qué es el Deep Learning?

2

¿Qué son las redes neuronales artificiales?

3

¿Por qué el Deep Learning ahora?

4

Pytorch y los diferentes frameworks de Deep Learning

5

Setup en Google Colab

Entender la API de Pytorch

6

¿Qué son los tensores?

7

Tensores y datasets

8

Capas de una red neuronal en Pytorch

9

Crear una red neuronal en Pytorch

10

¿Cómo cargar datos en Pytorch?

11

¿Cómo entrenar una red en Pytorch?

12

Loop de entrenamiento de la red neuronal

Entrenar Redes Neuronales Profundas

13

Ciclo de trabajo para el Deep Learning

14

Espacio de modelos

15

Función de perdida

16

Método de optimización: SGD y Backpropagation

17

Autograd y métodos de optimización

18

¿Cómo evaluar la performance de la red neuronal?

19

Regularización de redes neuronales profundas

20

Implementando la Regularización

21

Optimización de hiperparametros

22

Transfer learning

Construir nuestro propio modelo

23

Presentación del problema

24

Definiendo la red generativa que construiremos: CycleGAN

25

Creando la red generadora convolucional

26

Creando el decoder de la red generadora

27

Construyendo las redes discriminativas

28

Preparando el entrenamiento

29

Instanciando redes, perdidas

30

Instanciando optimizadores y schedulers

31

Calculando las pérdidas

32

Entrenando

33

Cómo visualizar y debugear el entrenamiento

34

Cómo utilizar tu modelo una vez entrenado

35

Cómo utilizar una GPU personal con Google Cloud

Llegar más lejos

36

¿Por qué el Deep Learning es más poderoso que el Machine Learning Tradicional?

37

Para ir más lejos

38

Cierre del curso

Bonus

39

¿Por qué aprender Deep Learning?

Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

Autograd y métodos de optimización

17/39
Recursos

Aportes 9

Preguntas 3

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Esta clase siento fue demasiada información com poca explicación, si podrían compartir unos recursos para terminar de enteder el tema, tales como documentacion de optimizers_viz, o que es el beales problem

Estoy trabando en jupyter notebook y no encuentro la librería optimizers_viz.
Alguien sabe como se llama para descargarla ?

recomiendo a todos complementar los cursos de platzi con el material en packt https://subscription.packtpub.com/

Lo recomiendo por que es un buen complemento y por que a mi me funcionó para aprender.

¡Saludos!

Increíble clase, este curso es muy retador.

----conclusión—
OPTIMIZADORES (recomendados)
• SGD con Momentum
• ADAM
• RMSprop

Esta muy linda la librería de la clase propuesta por el profe.

Muy interesante.
No me quedó claro algo del principio. Aplicar autograd es tan sencillo como aplicarle al tensor “.grad”?

Muy interesante

Muy chevere como se visualizan los optimizadores. Seria bueno contar con el codigo