Platzi
Platzi

LA EDUCACIÓN ES UN REGALO ¡ACCEDE AL PRECIO ESPECIAL!

Antes: $249
$149
Currency
Antes: $249
Ahorras: $100
COMIENZA AHORA
Termina en: 16D : 16H : 2M : 59S
Curso de TensorFlow.js

Curso de TensorFlow.js

Alejandro Santamaria

Alejandro Santamaria

Aprendizaje profundo

3/21
Recursos

Aportes 17

Preguntas 1

Ordenar por:

Los aportes, preguntas y respuestas son vitales para aprender en comunidad. Regístrate o inicia sesión para participar.

Entrenar … entrenar 💪.

El perceptrón sencillo (con una sola neurona artificial), solo se puede usar en problemas que usen como referencia la representación de una sola línea en el plano, para discrimar un area de otra, como es el caso de los operadores lógicos AND y OR.

Pero cuando la operación o el proceso requiere más de una línea (o una línea curva o zona de estudio), es necesario considerar el uso de redes más complejas.

  • Función de Costo: nos permite identificar qué tan cerca o lejos estamos de el valor correcto esperado.
  • Backpropagation: algoritmo que al detectar un error en el resultado, regresa sobre sus pasos para ajustar los pesos usados en cada neurona y volver a probar con más precisión.
  • Descenso del Gradiente: función mediante la cual se ajustan los valores de los parámetros (o pesos) durante el backpropagation.

Proceso de Backpropagation: Donde una vez que yo se que el resultado no fue el correcto, voy hacia atras y ajusto cada una de las casas y cada uno de los weights que estan en esas capas.

Entrenamiento

  • Inicializar los pesos (w) con valores aleatorios.
  • Obtener el resulado que arroja la evaluacion de la suma de los valores por los pesos y el bias (x*w, b).
  • Comparar ese resultado con el resultado deseado (y).
  • Agregar el error al costo total de cada uno de los casos de entrenamiento y se ajustan los pesos y el bias conforme a la participacion proporcional del error.
  • Esto se repite hasta que se cumpla un criterio de exito en relacion con los datos de entrenamiento.

Weight: (No lo traduzco para que nos acostumbremos al idioma).
Es un parámetro dentro de una red neuronal que transforma datos de entrada dentro de las capas ocultas de la red.

Link (English)

Buena clase.

Muy emocionante !

Descenso del Gradiente:

Es el algoritmo que nos permitia optimizar nuestra red neuronal para tener el menor error posible. Y lo que utiliza es la optimizacion de una curva donde queremos llegar al punto rojo partiendo desde el punto verde.

Este algoritmo de Descenso del Gradiente lo que hara es hice acercando progresivamente a ese punto minimo hasta tener una total optimizacion de cada una de las neuronas que componen la red neuronal.

En esta clase se tocaron temas importantes para entender una Red Neuronal como el Algoritmo de Backpropagation y el Descenso del Gradiente. Para entender más a fondo estos temas recomiendo los siguientes cursos en Platzi:
Curso de Redes Neuronales y Backpropagation 2017
Curso de Introducción al Deep Learning
Curso de Deep Learning con Pytorch

Además está el canal DotCSV que ya muchos conocen y que trata temas sobre IA:

Backpropagation

  • Es un proceso iterativo que nos permite encontrar el minimo de una funcion.
  • En el caso de una red neuronal, queremos encontrar los valores de los pesos(w) y el bias(b) que nos arrojen el minimo de la funcion de costo (promedio de la funcion de error sobre todos los datos de entrenamiento).

Redes Neuronales Profundas

Lo que hace es aumentar el numero de capas y el numero de neuronas, de tal manera que pueda interpretar patrones cada vez mas complejos.

En las redes neuronales por convolución una operación que hacen las capas es aprender los filtros. Esos filtros lo que hacen es extraer características. Ejemplo como calcular la salida de un filtro. Tenemos una imagen de 28x28 y le aplicamos un filtro de 3x3 y queremos saber el resultado de esa operación de convolución.
Tenemos nxn = 28x28
filtro 3x3
entonces:
28 - 3+1 =26; 28-3+1=26
A la salida tendremos una matriz de 26x26.

Otro ejemplo tenemos una imagen de 6x6 y le aplicamos un filtro de 3x3 el resultado de esta convolución será:

6 - 3 +1 =4 ; 6-3+1=4
El resultado de esa operación será una matriz será 4x4

A entrenar. Excelente clase de TF

Seguramente todos los que estamos acá conocemos el canal de YouTube de Dot CSV, pero para el que no lo conozca y esté interesado en IA aquí les dejo un video de redes neuronales. Es una belleza 😃

Excelente clase