Algo que me ayudo mucho a entender como se definió la estructura de la red neuronal fue esta imagen, por si a alguien más le ayuda a igual que a mi.
Fundamentos en la arquitectura de redes neuronales
La importancia de las redes neuronales en la actualidad
¿Que herramientas usaremos para redes neuronales?
¿Qué es deep learning?
Tu primera red neuronal con Keras
Entrenando el modelo de tu primera red neuronal
La neurona: una pequeña y poderosa herramienta
Arquitectura de una red neuronal
Funciones de activación
Funcion de pérdida (loss function)
Descenso del gradiente
Backpropagation
Playground - Tensorflow
Quiz: Fundamentos en la arquitectura de redes neuronales
Redes neuronales con Python
Dimensiones, tensores y reshape
Creando nuestra red neuronal usando numpy y matemáticas
Entrenamiento forward de la red neuronal
Aplicando backpropagation y descenso del gradiente
Entrenamiento y análisis de resultados de tu red neuronal
Quiz: Redes neuronales con Python
Manejo de redes neuronales con Keras
Data: train, validation, test
Resolviendo un problema de clasificacion binaria
Entrenamiento del modelo de clasificación binaria
Regularización - Dropout
Reduciendo el overfitting
Resolviendo un problema de clasificación múltiple
Entrenamiento del modelo de clasificación múltiple
Resolviendo un problema de regresión
Entrenamiento del modelo de regresión
Análisis de resultados del modelo de regresión
Cierre
¿Qué sigue por aprender de redes neuronales?
Aún no tienes acceso a esta clase
Crea una cuenta y continúa viendo este curso
Aportes 6
Preguntas 2
Algo que me ayudo mucho a entender como se definió la estructura de la red neuronal fue esta imagen, por si a alguien más le ayuda a igual que a mi.
Siguiendo la clase, creo que la estructura de la red neuronal quedaría de la siguiente forma, con 2 capas ocultas.
FUNCION PARA CREAR ESTRUCTURA DE LA RED
def initialize_parameters_deep(layers_dim):
parameters = {}
L = len(layers_dim)
for l in range(0,L-1):
parameters['W' + str(l+1)] = (np.random.rand(layers_dim[l],layers_dim[l+1]) * 2) -1
parameters['b' + str(l+1)] = (np.random.rand(1,layers_dim[l+1]) * 2) -1
return parameters
RECICLAJE
Funciones de activación
def sigmoid(x, derivate = False):
if derivate:
return np.exp(-x)/(( np.exp(-x) +1)**2)
else:
return 1 / (1 + np.exp(-x))
def relu(x, derivate = False):
if derivate:
x[x <= 0] = 0
x[x > 0 ] = 1
return x
else:
return np.maximum(0, x)
Funciones de perdida
def mse(y, y_hat, derivate = False):
if derivate:
return (y_hat - y)
else:
return np.mean((y_hat - y)**2)
Cre que la derivada de la función de pérdida sería -1·(y_hat-y) = (y-y_hat). Esto debido a la regla de la cadena
me parece confuso que pasen de keras a tensorflow, si es un curso de fundamentos bien nos podiamos quedar con keras.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.