Neuronas y función de activación, Usando un modelo pre entrenado para reconocimiento de imágenes, Trabajando un dataset
Clase 11 de 27 • Curso de Introducción a Machine Learning 2019
Contenido del curso
Trabajando con Pytorch
Implementaciones de algoritmos de Machine Learning en Pytorch
Redes Neurales y reconocimiento de imágenes
Reconocimiento de imágenes
Collab con Scikit
Algoritmos más usados en Machine Learning
Bonus: Redes neuronales y herramientas
Cierre
En la vida real la mayoría de problemas que vamos a resolver no serán lineales, afortunadamente tenemos varias herramientas que nos permiten modelarlo. Para esto necesitamos a las redes neuronales artificiales.
Con una capa oculta se agregan nodos y existirá una conexión entre ellos, estas pueden variar siendo de una o múltiples vías. También se pueden moderar de varias formas y cada una de estas capas puede variar dependiendo de la cantidad de capas ocultas que tengamos.
Cada neurona tiene una función de activación y nos va a permitir conectar las múltiples capas para realizar la transformación de lineal a red neuronal.
Perceptrón: Neurona básica. Tendrá la entrada, salida y una función en medio. Normalmente trabaja con la función escalón de Heaviside. A esto se le puede agregar complejidad y funciones de activación como Sigmoid, Tanh, ReLUs y otras más.
Tanh: Se puede modelar como un caso específico del Sigmoid, nos ayuda porque esta escalado. La curva es diferente y puede saturarse en algunos casos.
ReLU: Evita el problema de vanishing gradient pero solo puede utilizarse en las hidden layers de una NN. Existen variantes para evitar algunos de los problemas más comunes como neuronas muertas.