Crea una cuenta o inicia sesión

¡Continúa aprendiendo sin ningún costo! Únete y comienza a potenciar tu carrera

Curso de TensorFlow.js

Curso de TensorFlow.js

Alejandro Santamaria

Alejandro Santamaria

Aprendizaje profundo

3/21
Recursos

Aportes 19

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Entrenar … entrenar 💪.

El perceptrón sencillo (con una sola neurona artificial), solo se puede usar en problemas que usen como referencia la representación de una sola línea en el plano, para discrimar un area de otra, como es el caso de los operadores lógicos AND y OR.

Pero cuando la operación o el proceso requiere más de una línea (o una línea curva o zona de estudio), es necesario considerar el uso de redes más complejas.

  • Función de Costo: nos permite identificar qué tan cerca o lejos estamos de el valor correcto esperado.
  • Backpropagation: algoritmo que al detectar un error en el resultado, regresa sobre sus pasos para ajustar los pesos usados en cada neurona y volver a probar con más precisión.
  • Descenso del Gradiente: función mediante la cual se ajustan los valores de los parámetros (o pesos) durante el backpropagation.

Entrenamiento

  • Inicializar los pesos (w) con valores aleatorios.
  • Obtener el resulado que arroja la evaluacion de la suma de los valores por los pesos y el bias (x*w, b).
  • Comparar ese resultado con el resultado deseado (y).
  • Agregar el error al costo total de cada uno de los casos de entrenamiento y se ajustan los pesos y el bias conforme a la participacion proporcional del error.
  • Esto se repite hasta que se cumpla un criterio de exito en relacion con los datos de entrenamiento.

Descenso del Gradiente:

Es el algoritmo que nos permitia optimizar nuestra red neuronal para tener el menor error posible. Y lo que utiliza es la optimizacion de una curva donde queremos llegar al punto rojo partiendo desde el punto verde.

Este algoritmo de Descenso del Gradiente lo que hara es hice acercando progresivamente a ese punto minimo hasta tener una total optimizacion de cada una de las neuronas que componen la red neuronal.

Backpropagation

  • Es un proceso iterativo que nos permite encontrar el minimo de una funcion.
  • En el caso de una red neuronal, queremos encontrar los valores de los pesos(w) y el bias(b) que nos arrojen el minimo de la funcion de costo (promedio de la funcion de error sobre todos los datos de entrenamiento).

Redes Neuronales Profundas

Lo que hace es aumentar el numero de capas y el numero de neuronas, de tal manera que pueda interpretar patrones cada vez mas complejos.

Proceso de Backpropagation: Donde una vez que yo se que el resultado no fue el correcto, voy hacia atras y ajusto cada una de las casas y cada uno de los weights que estan en esas capas.

Weight: (No lo traduzco para que nos acostumbremos al idioma).
Es un parámetro dentro de una red neuronal que transforma datos de entrada dentro de las capas ocultas de la red.

Link (English)

Buena clase.

QUE INTERESANTE VER el proceso de backpropagation , para ajustar los pesos y las capas de los pesos.

Seguramente todos los que estamos acá conocemos el canal de YouTube de Dot CSV, pero para el que no lo conozca y esté interesado en IA aquí les dejo un video de redes neuronales. Es una belleza 😃

Maravilloso este curso.

Muy emocionante !

En esta clase se tocaron temas importantes para entender una Red Neuronal como el Algoritmo de Backpropagation y el Descenso del Gradiente. Para entender más a fondo estos temas recomiendo los siguientes cursos en Platzi:
Curso de Redes Neuronales y Backpropagation 2017
Curso de Introducción al Deep Learning
Curso de Deep Learning con Pytorch

Además está el canal DotCSV que ya muchos conocen y que trata temas sobre IA:

En las redes neuronales por convolución una operación que hacen las capas es aprender los filtros. Esos filtros lo que hacen es extraer características. Ejemplo como calcular la salida de un filtro. Tenemos una imagen de 28x28 y le aplicamos un filtro de 3x3 y queremos saber el resultado de esa operación de convolución.
Tenemos nxn = 28x28
filtro 3x3
entonces:
28 - 3+1 =26; 28-3+1=26
A la salida tendremos una matriz de 26x26.

Otro ejemplo tenemos una imagen de 6x6 y le aplicamos un filtro de 3x3 el resultado de esta convolución será:

6 - 3 +1 =4 ; 6-3+1=4
El resultado de esa operación será una matriz será 4x4

A entrenar. Excelente clase de TF

Excelente clase