Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

Creando nuestra red neuronal usando numpy y matemáticas

14/28
Recursos

Aportes 6

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Algo que me ayudo mucho a entender como se definió la estructura de la red neuronal fue esta imagen, por si a alguien más le ayuda a igual que a mi.

Siguiendo la clase, creo que la estructura de la red neuronal quedaría de la siguiente forma, con 2 capas ocultas.

FUNCION PARA CREAR ESTRUCTURA DE LA RED

def initialize_parameters_deep(layers_dim):
  parameters = {}
  L = len(layers_dim)
  for l in range(0,L-1):
    parameters['W' + str(l+1)] = (np.random.rand(layers_dim[l],layers_dim[l+1]) * 2) -1
    parameters['b' + str(l+1)] = (np.random.rand(1,layers_dim[l+1]) * 2) -1
  return parameters

RECICLAJE


Funciones de activación

def sigmoid(x, derivate = False):
    if derivate:
        return np.exp(-x)/(( np.exp(-x) +1)**2)
    else:    
        return 1 / (1 + np.exp(-x))

def relu(x, derivate = False):
    if derivate:
        x[x <= 0] = 0
        x[x > 0 ] = 1
        return x
    else:    
        return np.maximum(0, x)

Funciones de perdida

def mse(y, y_hat, derivate = False):
  if derivate:
    return (y_hat - y)
  else:
    return np.mean((y_hat - y)**2)

Cre que la derivada de la función de pérdida sería -1·(y_hat-y) = (y-y_hat). Esto debido a la regla de la cadena

me parece confuso que pasen de keras a tensorflow, si es un curso de fundamentos bien nos podiamos quedar con keras.