¿Por qué se utiliza una función de activación (en este caso ReLU) en la capa de extracción de características / feature maps?
Como se vió en el curso pasado, en una red neuronal artificial la función de activación es usada debido a que la salida de las neuronas artificiales da como resultado una función lineal y por lo tanto la suma de funciones lineales da como resultado otra función lineal.
En el caso de las redes neuronales convolucionales, la función de activación también es usada en la extracción de características/ feature maps debido a que ésta misma consta de 3 operaciones básicas:
- Filtrar una imagen para una característica en particular (convolución)
- Detectar esa característica dentro de la imagen filtrada (ReLU)
- Condensar la imagen para realzar las características (pooling)
Aquí una imagen para ilustrar lo mencionado anteriormente:
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?