Entrenar … entrenar 💪.
Entender el concepto de Red Neuronal y Aprendizaje Profundo
Todo lo que aprenderás sobre TensorFlow.js
Redes Neuronales, una visita express
Aprendizaje profundo
Conocer qué es TensorFlow y TensorFlow.js
¿Qué es TensorFlow?
TensorFlow con JavaScript
Inteligencia Artificial y ML en el navegador
Entender cuáles son los componentes básicos de una Red Neuronal y cómo entrenarla
Entradas, capas y salidas
Entrenando un modelo
Visualización del proceso de entrenamiento
Almacenamiento de modelos de redes neuronales
Entender cual es la forma común de utilizar un modelo de Red Neuronal
Optimización de modelos
Modelo general de utilización
Transfiriendo el aprendizaje
Diseñar un modelo de Regresión Lineal
Diseñando un modelo de regresión lineal
Entrenando un modelo de regresión lineal
Preparando datos para un modelo de regresión lineal
Utilizando un modelo de regresión lineal
Crear una aplicación en JavaScript que utilice un modelo de clasificación de Imágenes
Diseñando un modelo de clasificación de imágenes
Utilizando un modelo de clasificación de imágenes
Transferencia de conocimiento a un modelo de clasificación de imágenes
Conclusión
Resúmen y siguientes pasos
Create an account or log in
Keep learning for free! Join and start boosting your career
Dive into the fascinating world of deep learning, a revolutionary technology that has transformed the field of machine learning. Deep learning is advanced neural networks that overcome the limitations of the single perceptron, making it possible to solve much more complex problems thanks to the use of multiple layers of interconnected neurons. Here we explain why this technique is a significant advance in artificial intelligence.
A perceptron, the basic component of a neural network, has three main parts: inputs, a central process and outputs. Through mathematical operations, a perceptron adjusts the weights of these inputs to simulate behavior. However, it is limited to linear discriminations, which means that it can only separate data by a straight line. This prevents the simple perceptron from solving more complex problems, such as an XOR logic gate, which requires at least two lines to separate data.
To overcome the limitations of the simple perceptron, hidden layers are added to the neural network. These layers, composed of multiple perceptrons, allow for more complex discriminations. By including an additional layer with neurons, the ability to model problems that cannot be solved by simple linear separation is enabled, thus expanding the scope of what neural networks can accomplish.
Learning in neural networks emulates the human process of trial and error. This process involves several stages:
This process is repeated until the error is minimal, tuning the perceptron to improve its accuracy in predicting new inputs.
The gradient descent algorithm is crucial for optimizing a neural network, helping to reduce the error in adjusting the weights. The goal is to find the minimum of the cost function, improving the accuracy of the network at each iteration until the optimal degree of prediction is reached.
Deep neural networks offer numerous advantages that have driven their popularity:
Although neural networks can execute complex tasks with minimal intervention, human supervision is essential to ensure that the objectives are met correctly. An illustrative case is an algorithm designed to win a game by accumulating points, which used a suboptimal strategy of repeatedly crashing and consuming on-screen items, achieving points but not finishing the race. This example reveals the need for human intervention to prevent machines from pursuing goals contrary to expectations.
With this knowledge, you will be better prepared to understand deep learning and its impact on today's technological world. Continue to explore and delve deeper into this exciting field of artificial intelligence!
Contributions 18
Questions 1
Entrenar … entrenar 💪.
El perceptrón sencillo (con una sola neurona artificial), solo se puede usar en problemas que usen como referencia la representación de una sola línea en el plano, para discrimar un area de otra, como es el caso de los operadores lógicos AND y OR.
Pero cuando la operación o el proceso requiere más de una línea (o una línea curva o zona de estudio), es necesario considerar el uso de redes más complejas.
Entrenamiento
Descenso del Gradiente:
Es el algoritmo que nos permitia optimizar nuestra red neuronal para tener el menor error posible. Y lo que utiliza es la optimizacion de una curva donde queremos llegar al punto rojo partiendo desde el punto verde.
Este algoritmo de Descenso del Gradiente lo que hara es hice acercando progresivamente a ese punto minimo hasta tener una total optimizacion de cada una de las neuronas que componen la red neuronal.
Backpropagation
Redes Neuronales Profundas
Lo que hace es aumentar el numero de capas y el numero de neuronas, de tal manera que pueda interpretar patrones cada vez mas complejos.
Proceso de Backpropagation: Donde una vez que yo se que el resultado no fue el correcto, voy hacia atras y ajusto cada una de las casas y cada uno de los weights que estan en esas capas.
Weight: (No lo traduzco para que nos acostumbremos al idioma).
Es un parámetro dentro de una red neuronal que transforma datos de entrada dentro de las capas ocultas de la red.
Buena clase.
QUE INTERESANTE VER el proceso de backpropagation , para ajustar los pesos y las capas de los pesos.
Maravilloso este curso.
Muy emocionante !
D:
En esta clase se tocaron temas importantes para entender una Red Neuronal como el Algoritmo de Backpropagation y el Descenso del Gradiente. Para entender más a fondo estos temas recomiendo los siguientes cursos en Platzi:
Curso de Redes Neuronales y Backpropagation 2017
Curso de Introducción al Deep Learning
Curso de Deep Learning con Pytorch
Además está el canal DotCSV que ya muchos conocen y que trata temas sobre IA:
En las redes neuronales por convolución una operación que hacen las capas es aprender los filtros. Esos filtros lo que hacen es extraer características. Ejemplo como calcular la salida de un filtro. Tenemos una imagen de 28x28 y le aplicamos un filtro de 3x3 y queremos saber el resultado de esa operación de convolución.
Tenemos nxn = 28x28
filtro 3x3
entonces:
28 - 3+1 =26; 28-3+1=26
A la salida tendremos una matriz de 26x26.
Otro ejemplo tenemos una imagen de 6x6 y le aplicamos un filtro de 3x3 el resultado de esta convolución será:
6 - 3 +1 =4 ; 6-3+1=4
El resultado de esa operación será una matriz será 4x4
A entrenar. Excelente clase de TF
Excelente clase
Want to see more contributions, questions and answers from the community?