Create an account or log in

Keep learning for free! Join and start boosting your career

Aprovecha el precio especial y haz tu profesión a prueba de IA

Antes: $249

Currency
$209
Suscríbete

Termina en:

1 Días
7 Hrs
25 Min
3 Seg
Curso de TensorFlow.js

Curso de TensorFlow.js

Alejandro Santamaria

Alejandro Santamaria

Aprendizaje profundo

3/21
Resources

What is deep learning?

Dive into the fascinating world of deep learning, a revolutionary technology that has transformed the field of machine learning. Deep learning is advanced neural networks that overcome the limitations of the single perceptron, making it possible to solve much more complex problems thanks to the use of multiple layers of interconnected neurons. Here we explain why this technique is a significant advance in artificial intelligence.

How does a single perceptron work?

A perceptron, the basic component of a neural network, has three main parts: inputs, a central process and outputs. Through mathematical operations, a perceptron adjusts the weights of these inputs to simulate behavior. However, it is limited to linear discriminations, which means that it can only separate data by a straight line. This prevents the simple perceptron from solving more complex problems, such as an XOR logic gate, which requires at least two lines to separate data.

Why are hidden layers necessary?

To overcome the limitations of the simple perceptron, hidden layers are added to the neural network. These layers, composed of multiple perceptrons, allow for more complex discriminations. By including an additional layer with neurons, the ability to model problems that cannot be solved by simple linear separation is enabled, thus expanding the scope of what neural networks can accomplish.

How do neural networks learn?

Learning in neural networks emulates the human process of trial and error. This process involves several stages:

  1. Random initialization: initial values are assigned to the perceptron weights randomly.
  2. Forward propagation: A piece of data is input, passed through the perceptron and an output is obtained.
  3. Output comparison: The calculated output is compared with the expected output to determine the error.
  4. Parameter adjustment: Based on the error found, weights are adjusted to reduce the discrepancy.

This process is repeated until the error is minimal, tuning the perceptron to improve its accuracy in predicting new inputs.

What role does the gradient descent algorithm play?

The gradient descent algorithm is crucial for optimizing a neural network, helping to reduce the error in adjusting the weights. The goal is to find the minimum of the cost function, improving the accuracy of the network at each iteration until the optimal degree of prediction is reached.

What are the advantages of deep neural networks?

Deep neural networks offer numerous advantages that have driven their popularity:

  • Enhanced learning capability: they can interpret very complex patterns and extract relevant information from vast data sets.
  • Access to resources and computing power: The availability of more connected devices and computing power has facilitated their development.
  • New methods: Constant development and experimentation with new techniques have made it possible to solve old problems in innovative ways.
  • Reduced human intervention: Greater autonomy in computational learning, although always under supervision to ensure that the objectives are met.

Why is human supervision important?

Although neural networks can execute complex tasks with minimal intervention, human supervision is essential to ensure that the objectives are met correctly. An illustrative case is an algorithm designed to win a game by accumulating points, which used a suboptimal strategy of repeatedly crashing and consuming on-screen items, achieving points but not finishing the race. This example reveals the need for human intervention to prevent machines from pursuing goals contrary to expectations.

With this knowledge, you will be better prepared to understand deep learning and its impact on today's technological world. Continue to explore and delve deeper into this exciting field of artificial intelligence!

Contributions 18

Questions 1

Sort by:

Want to see more contributions, questions and answers from the community?

Entrenar … entrenar 💪.

El perceptrón sencillo (con una sola neurona artificial), solo se puede usar en problemas que usen como referencia la representación de una sola línea en el plano, para discrimar un area de otra, como es el caso de los operadores lógicos AND y OR.

Pero cuando la operación o el proceso requiere más de una línea (o una línea curva o zona de estudio), es necesario considerar el uso de redes más complejas.

  • Función de Costo: nos permite identificar qué tan cerca o lejos estamos de el valor correcto esperado.
  • Backpropagation: algoritmo que al detectar un error en el resultado, regresa sobre sus pasos para ajustar los pesos usados en cada neurona y volver a probar con más precisión.
  • Descenso del Gradiente: función mediante la cual se ajustan los valores de los parámetros (o pesos) durante el backpropagation.

Entrenamiento

  • Inicializar los pesos (w) con valores aleatorios.
  • Obtener el resulado que arroja la evaluacion de la suma de los valores por los pesos y el bias (x*w, b).
  • Comparar ese resultado con el resultado deseado (y).
  • Agregar el error al costo total de cada uno de los casos de entrenamiento y se ajustan los pesos y el bias conforme a la participacion proporcional del error.
  • Esto se repite hasta que se cumpla un criterio de exito en relacion con los datos de entrenamiento.

Descenso del Gradiente:

Es el algoritmo que nos permitia optimizar nuestra red neuronal para tener el menor error posible. Y lo que utiliza es la optimizacion de una curva donde queremos llegar al punto rojo partiendo desde el punto verde.

Este algoritmo de Descenso del Gradiente lo que hara es hice acercando progresivamente a ese punto minimo hasta tener una total optimizacion de cada una de las neuronas que componen la red neuronal.

Backpropagation

  • Es un proceso iterativo que nos permite encontrar el minimo de una funcion.
  • En el caso de una red neuronal, queremos encontrar los valores de los pesos(w) y el bias(b) que nos arrojen el minimo de la funcion de costo (promedio de la funcion de error sobre todos los datos de entrenamiento).

Redes Neuronales Profundas

Lo que hace es aumentar el numero de capas y el numero de neuronas, de tal manera que pueda interpretar patrones cada vez mas complejos.

Proceso de Backpropagation: Donde una vez que yo se que el resultado no fue el correcto, voy hacia atras y ajusto cada una de las casas y cada uno de los weights que estan en esas capas.

Weight: (No lo traduzco para que nos acostumbremos al idioma).
Es un parámetro dentro de una red neuronal que transforma datos de entrada dentro de las capas ocultas de la red.

Link (English)

Buena clase.

QUE INTERESANTE VER el proceso de backpropagation , para ajustar los pesos y las capas de los pesos.

Maravilloso este curso.

Muy emocionante !

D:

En esta clase se tocaron temas importantes para entender una Red Neuronal como el Algoritmo de Backpropagation y el Descenso del Gradiente. Para entender más a fondo estos temas recomiendo los siguientes cursos en Platzi:
Curso de Redes Neuronales y Backpropagation 2017
Curso de Introducción al Deep Learning
Curso de Deep Learning con Pytorch

Además está el canal DotCSV que ya muchos conocen y que trata temas sobre IA:

En las redes neuronales por convolución una operación que hacen las capas es aprender los filtros. Esos filtros lo que hacen es extraer características. Ejemplo como calcular la salida de un filtro. Tenemos una imagen de 28x28 y le aplicamos un filtro de 3x3 y queremos saber el resultado de esa operación de convolución.
Tenemos nxn = 28x28
filtro 3x3
entonces:
28 - 3+1 =26; 28-3+1=26
A la salida tendremos una matriz de 26x26.

Otro ejemplo tenemos una imagen de 6x6 y le aplicamos un filtro de 3x3 el resultado de esta convolución será:

6 - 3 +1 =4 ; 6-3+1=4
El resultado de esa operación será una matriz será 4x4

A entrenar. Excelente clase de TF

Excelente clase