Cuál es el algoritmo de retropropagación
Clase 5 de 9 • Curso de Redes Neuronales y Backpropagation 2017
Resumen
Datos importantes:
- Los gradientes son básicamente la primer derivada de una función con respecto a un determinado parámetro. En este caso la función es la función de costo y el parámetro es cada uno de los pesos en una red neuronal.
- La técnica de Backpropagation es responsable de separar de forma no lineal distintas clases que se encuentran en la vida real.
- El algorimo de Backpropagation se compone de dos pasos:
a) Forward Step o paso hacia delante. En éste tenemos una proyección de matrices. Tenemos datos de entrada, los pesos y una proyección de los datos de entrada a un nuevo espacio.
b) Backward Step o paso hacia atrás.
- La función de activación no lineal permite encontrar el valor de la primera capa escondida de una red neuronal y se hace una proyección con los pesos, para así obtener el valor sigmoid de esa combinación lineal.