No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Funciones de activación

7/22
Recursos

Aportes 8

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Perdón, pero faltó mencionar algo supremamente importante, y es la razón de por qué se usa una función de activación. Generalmente se hace para lograr agregar el factor de “no linearidad” que se necesita, para atacar ciertos problemas, donde no se puede usar simplemente una frontera de decisión lineal(hiperplano) que nos separe los puntos, esto para un problema de clasificación. Luego usar estas funciones nos permite encontrar regiones o fronteras no lineales que separen mejor los puntos.

Como un aporte adcional me gustaria comentar que la selección de las funciones de activación está muy relacionada al problema a resolver

  • La función sigmoide para clasificación binaria

  • La función softmax o tanh para clasificación multiclase

  • La función ReLU para convolución.

Como ejemplos más usados.

Hola, me ha resultado bastante útil este video en el que explica también las funciones de activación de la clase (aunque sin tanto énfasis) y te explica la importancia intuitiva de las funciones de activación en las redes neuronales.

Video: https://youtu.be/uwbHOpp9xkc

hola tengo un data set de 5 variables, y una de esas 5 es mi target, al crear una red del tipo
model = Sequential()
model.add(Dense(5, input_dim=5, kernel_initializer=‘normal’,activation=‘relu’))
model.add(Dense(3, kernel_initializer=‘normal’,activation=‘relu’))
model.add(Dense(1, kernel_initializer=‘normal’))

y entrenar mi modelo,

#Entrena el modelo
model.fit(x_train, y_train, batch_size=32, epochs=5,validation_data=(x_val,y_val))

me aparece el siguiente error:

ValueError: Error when checking input: expected dense_11_input to have shape (5,) but got array with shape (4,)

me ayudan con esto porfa?

Una aclaración en cuanto a la segunda función de activación, no es que exista una función lineal, es que el comportamiento de una red es el de una regresión lineal multiple. Sin funciones de activación todas las capas colapsan en un solo perceptron que no puede manejar problemas de alta complejidad, por la misma naturaleza del algoritmo de regresión líneal.

Más información en este video:

https://www.youtube.com/watch?v=uwbHOpp9xkc

Eso de la derivada de las funciones de activacion pienso que es mas un concepto matematico, ya que al final al hacer backpropagation las unicas derivadas que se sacan son las derivadas parciales de las funciones de coste, como por ejemplo el cross entropy loss que es la funcion de coste que se usa en la regresion logistica.