Resumen

**Datos importantes: **

  • Una función de error o loss function es básicamente la forma como una red neuronal sabe si está haciendo un buen trabajo o no.

  • La gradiente o la primer derivada de una función con respecto a los pesos está siempre orientada al lugar donde se reduce más la función de error. Esto nos permite saber si la red neuronal está aprendiendo o no.

  • En la vida real las funciones son no convexas, esto quiere decir que podemos tener distintas soluciones para un mismo problema. Este es uno de los motivos por los cuales toma tanto tiempo entrenar una red neuronal artificial.