¿Por qué cambiamos la función de activación en backpropagation?

Luisa Jaimes

Luisa Jaimes

Pregunta
studenthace 4 años

¿Por qué cambiamos la función de activación en backpropagation?

2 respuestas
para escribir tu comentario
    Manuel Pérez Terradillos

    Manuel Pérez Terradillos

    studenthace 4 años

    Durante el entrenamiento, en las capas internas está utilizando la función de activación RELU, ya que esta es más rápida en converger habitualmente. Sin embargo, en la salida final, buscamos tener un sí o no, o un 1 o 0 y este resultado se aproxima mejor con la función sigmoide. El profesor creo ha utilizado esta forma también para mostrarnos que se pueden utilizar dos funciones de activación en la misma red neuronal.

    Alarcon7a

    Alarcon7a

    studenthace 4 años

    a cual te refieres... a las derivadas de la función?

Curso de Redes Neuronales con Python y Keras

Curso de Redes Neuronales con Python y Keras

Las redes neuronales se utilizan en deep learning para generar predicciones, análisis de sentimiento y otros análisis de texto, voz e imagen cuando tenemos muchos datos. Aprende cómo funcionan y cómo empezar a utilizarlas en tus proyectos en ciencia de datos.

Curso de Redes Neuronales con Python y Keras
Curso de Redes Neuronales con Python y Keras

Curso de Redes Neuronales con Python y Keras

Las redes neuronales se utilizan en deep learning para generar predicciones, análisis de sentimiento y otros análisis de texto, voz e imagen cuando tenemos muchos datos. Aprende cómo funcionan y cómo empezar a utilizarlas en tus proyectos en ciencia de datos.