Crea una cuenta o inicia sesi贸n

隆Contin煤a aprendiendo sin ning煤n costo! 脷nete y comienza a potenciar tu carrera

Curso de TensorFlow.js

Curso de TensorFlow.js

Alejandro Santamaria

Alejandro Santamaria

Aprendizaje profundo

3/21
Recursos

Aportes 19

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Entrenar 鈥 entrenar 馃挭.

El perceptr贸n sencillo (con una sola neurona artificial), solo se puede usar en problemas que usen como referencia la representaci贸n de una sola l铆nea en el plano, para discrimar un area de otra, como es el caso de los operadores l贸gicos AND y OR.

Pero cuando la operaci贸n o el proceso requiere m谩s de una l铆nea (o una l铆nea curva o zona de estudio), es necesario considerar el uso de redes m谩s complejas.

  • Funci贸n de Costo: nos permite identificar qu茅 tan cerca o lejos estamos de el valor correcto esperado.
  • Backpropagation: algoritmo que al detectar un error en el resultado, regresa sobre sus pasos para ajustar los pesos usados en cada neurona y volver a probar con m谩s precisi贸n.
  • Descenso del Gradiente: funci贸n mediante la cual se ajustan los valores de los par谩metros (o pesos) durante el backpropagation.

Entrenamiento

  • Inicializar los pesos (w) con valores aleatorios.
  • Obtener el resulado que arroja la evaluacion de la suma de los valores por los pesos y el bias (x*w, b).
  • Comparar ese resultado con el resultado deseado (y).
  • Agregar el error al costo total de cada uno de los casos de entrenamiento y se ajustan los pesos y el bias conforme a la participacion proporcional del error.
  • Esto se repite hasta que se cumpla un criterio de exito en relacion con los datos de entrenamiento.

Descenso del Gradiente:

Es el algoritmo que nos permitia optimizar nuestra red neuronal para tener el menor error posible. Y lo que utiliza es la optimizacion de una curva donde queremos llegar al punto rojo partiendo desde el punto verde.

Este algoritmo de Descenso del Gradiente lo que hara es hice acercando progresivamente a ese punto minimo hasta tener una total optimizacion de cada una de las neuronas que componen la red neuronal.

Backpropagation

  • Es un proceso iterativo que nos permite encontrar el minimo de una funcion.
  • En el caso de una red neuronal, queremos encontrar los valores de los pesos(w) y el bias(b) que nos arrojen el minimo de la funcion de costo (promedio de la funcion de error sobre todos los datos de entrenamiento).

Redes Neuronales Profundas

Lo que hace es aumentar el numero de capas y el numero de neuronas, de tal manera que pueda interpretar patrones cada vez mas complejos.

Proceso de Backpropagation: Donde una vez que yo se que el resultado no fue el correcto, voy hacia atras y ajusto cada una de las casas y cada uno de los weights que estan en esas capas.

Weight: (No lo traduzco para que nos acostumbremos al idioma).
Es un par谩metro dentro de una red neuronal que transforma datos de entrada dentro de las capas ocultas de la red.

Link (English)

Buena clase.

QUE INTERESANTE VER el proceso de backpropagation , para ajustar los pesos y las capas de los pesos.

Seguramente todos los que estamos ac谩 conocemos el canal de YouTube de Dot CSV, pero para el que no lo conozca y est茅 interesado en IA aqu铆 les dejo un video de redes neuronales. Es una belleza 馃槂

Maravilloso este curso.

Muy emocionante !

D:

En esta clase se tocaron temas importantes para entender una Red Neuronal como el Algoritmo de Backpropagation y el Descenso del Gradiente. Para entender m谩s a fondo estos temas recomiendo los siguientes cursos en Platzi:
Curso de Redes Neuronales y Backpropagation 2017
Curso de Introducci贸n al Deep Learning
Curso de Deep Learning con Pytorch

Adem谩s est谩 el canal DotCSV que ya muchos conocen y que trata temas sobre IA:

En las redes neuronales por convoluci贸n una operaci贸n que hacen las capas es aprender los filtros. Esos filtros lo que hacen es extraer caracter铆sticas. Ejemplo como calcular la salida de un filtro. Tenemos una imagen de 28x28 y le aplicamos un filtro de 3x3 y queremos saber el resultado de esa operaci贸n de convoluci贸n.
Tenemos nxn = 28x28
filtro 3x3
entonces:
28 - 3+1 =26; 28-3+1=26
A la salida tendremos una matriz de 26x26.

Otro ejemplo tenemos una imagen de 6x6 y le aplicamos un filtro de 3x3 el resultado de esta convoluci贸n ser谩:

6 - 3 +1 =4 ; 6-3+1=4
El resultado de esa operaci贸n ser谩 una matriz ser谩 4x4

A entrenar. Excelente clase de TF

Excelente clase