Cuál es el algoritmo de retropropagación

Clase 5 de 9Curso de Redes Neuronales y Backpropagation 2017

Resumen

Datos importantes:

  • Los gradientes son básicamente la primer derivada de una función con respecto a un determinado parámetro. En este caso la función es la función de costo y el parámetro es cada uno de los pesos en una red neuronal.
  • La técnica de Backpropagation es responsable de separar de forma no lineal distintas clases que se encuentran en la vida real.
  • El algorimo de Backpropagation se compone de dos pasos:

a) Forward Step o paso hacia delante. En éste tenemos una proyección de matrices. Tenemos datos de entrada, los pesos y una proyección de los datos de entrada a un nuevo espacio.
b) Backward Step o paso hacia atrás.

  • La función de activación no lineal permite encontrar el valor de la primera capa escondida de una red neuronal y se hace una proyección con los pesos, para así obtener el valor sigmoid de esa combinación lineal.