
Pepito Dev
Preguntatengo dudas en este fragmento de codigo optimizer.zero_grad() loss.backward() optimizer.step()

Andres Mauricio Cano Causil
Por lo que investigue y entendi.
optimizer.zero_grad() es para inicializar los parametros necesarios para calcular el descenso de la gradiente.
loss.backward() es para hacer un back propagation que consiste en calcular el error, penalizar los pesos de cada caracteristica que se usan para hacer la prediccion o ir hacia atras de capa en capa y penalizar a las neuronas culpables de ese error (en deep learning) para asi calcular nuevos pesos con la ayuda de la gradiente. PD: Entre mayor sea la carga de responsabilidad de error para cada peso, mas grande sera el cambio en su nuevo valor.
optimizer.step() es el que mueve el punto en el descenso de la gradiente, es decir el que efectua el nuevo valor de los pesos. (Corregirme si estoy equivocado en alguno de esos terminos)