Machine Learning Supervisado Algoritmos: K-Nearest Neighbors, Decision Tree, Random Forest, y Redes Neuronales
Clase 17 de 32 • Curso de Introducción a Machine Learning 2018
Contenido del curso
Conceptos Básicos
- 4

Conceptos básicos: Inteligencia artificial, Machine Learning y Deep Learning
02:17 min - 5
Inteligencia artificial, Machine Learning y Deep Learning
02:00 min - 6

Inteligencia Humana y Artificial
02:51 min - 7

Machine Learning, Redes Neuronales Artificiales y Aprendizaje Profundo
04:50 min - 8

Ciencias de Datos
02:34 min
Set de Datos
Modelos de ML
- 14

Tipos de Machine Learning y modelos principales
02:28 min - 15

Introducción al aprendizaje supervisado y no supervisado
02:20 min - 16

Machine Learning Supervisado Algoritmos: Regresión Lineal, Logísticay Naive Bayes
07:00 min - 17

Machine Learning Supervisado Algoritmos: K-Nearest Neighbors, Decision Tree, Random Forest, y Redes Neuronales
Viendo ahora - 18

Proyecto Machine Learning Supervisado: práctica con algoritmo de Decision Tree y Random Forest
03:35 min - 19

Machine Learning No Supervisado: Algoritmos
05:00 min - 20

Proyecto de Machine Learning no Supervisado: aplicando algoritmo k-means
10:16 min
Evaluación
- 21

Introducción a la evaluación del modelo entrenado
02:24 min - 22

Evaluando nuestro algoritmo entrenado
02:31 min - 23

Matriz de confusión, precisión y recall
03:09 min - 24

Otras evaluaciones: Error cuadrático medio
01:13 min - 25

Proyecto de Machine Learning Supervisado: aplicando la matriz de confusión a nuestro algoritmo entrenado
10:52 min - 26

Probando nuestro algoritmo entrenado en un set de datos nuevos
05:49 min
ML y Matemáticas
Conceptos Finales
Continuando con los algoritmos de Machine Learning supervisado:
-
K-nearest neighbors: Este algo nos sirve para predecir un valor numérico y clasificar un valor categórico. Trabaja directamente con toda el set de datos de entrenamiento, si tengo un K igual a tres o cinco eso será el número de vecinos cercanos y para saber cuáles están más cerca podemos usar los tipos de distancias como Euclidiana, Hamming, Manhattan.
-
Decision Tree: Este tipo de algoritmo también nos sirve para predecir y clasificar, se basa en las decisiones. Si queremos tomar decisiones sobre los puntos mayores o menores empezamos a dividir dependiendo de nuestras decisiones.
Es importante considerar dos puntos principales: El Indice Gini y la ganancia de información, el primero trabajo con los atributos de valores continuos y es una función para medir el grado de impureza de nodos en nuestro árbol de decisiones para saber que tan mezclados y desordenados están; el segundo está relacionado a los atributos categóricos, es un criterio para estimar la información, estimamos la información que aporta cada atributo a sobre todo nuestro set de datos.
-
Random Forest: Todo lo estudiado en el árbol de decisiones nos sirve en este tipo de algoritmo, nos permite la predicción de valores numéricos y categóricos. También se le denomina Ensamble, puede trabajar con un grupo de algoritmos.
-
Redes Neuronales: Nos sirve también para hacer las predicciones y clasificaciones.