Machine Learning Supervisado Algoritmos: K-Nearest Neighbors, Decision Tree, Random Forest, y Redes Neuronales

Clase 17 de 32Curso de Introducción a Machine Learning 2018

Resumen

Continuando con los algoritmos de Machine Learning supervisado:

  • K-nearest neighbors: Este algo nos sirve para predecir un valor numérico y clasificar un valor categórico. Trabaja directamente con toda el set de datos de entrenamiento, si tengo un K igual a tres o cinco eso será el número de vecinos cercanos y para saber cuáles están más cerca podemos usar los tipos de distancias como Euclidiana, Hamming, Manhattan.

  • Decision Tree: Este tipo de algoritmo también nos sirve para predecir y clasificar, se basa en las decisiones. Si queremos tomar decisiones sobre los puntos mayores o menores empezamos a dividir dependiendo de nuestras decisiones.

Es importante considerar dos puntos principales: El Indice Gini y la ganancia de información, el primero trabajo con los atributos de valores continuos y es una función para medir el grado de impureza de nodos en nuestro árbol de decisiones para saber que tan mezclados y desordenados están; el segundo está relacionado a los atributos categóricos, es un criterio para estimar la información, estimamos la información que aporta cada atributo a sobre todo nuestro set de datos.

  • Random Forest: Todo lo estudiado en el árbol de decisiones nos sirve en este tipo de algoritmo, nos permite la predicción de valores numéricos y categóricos. También se le denomina Ensamble, puede trabajar con un grupo de algoritmos.

  • Redes Neuronales: Nos sirve también para hacer las predicciones y clasificaciones.