Fundamentos prácticos

1

Aplica Platzidoro en este curso y asegura el éxito de tu aprendizaje

2

Los fundamentos de machine learning que aprenderás

3

Introducción a Numpy

4

Introducción y manipulación de datos con Pandas

5

Introducción a ScikitLearn

6

Comandos básicos de las librerías usadas en el curso (Numpy, Pandas y ScikitLearn)

Regresión Lineal y Logística

7

¿Qué es la predicción de datos?

8

Sobreajuste y subajuste en los datos

9

Regresión lineal simple y regresión lineal múltiple

10

Regresión lineal simple con Scikit-Learn: división de los datos

11

Regresión lineal simple con Scikit-Learn: creación del modelo

12

Regresión logística con Scikit-Learn: definición y división de datos

13

Regresión logística con Scikit-Learn: evaluación del modelo

14

Matriz de confusión

15

PlatziDoro Cápsula 1

Árboles de decisión

16

¿Qué es un árbol de decisión y cómo se divide?

17

Comprendiendo nuestro data set para la creación de un árbol de decisión

18

Creando un clasificador con Scikit-Learn

19

Entrenamiento del modelo de clasificación

20

Visualización del árbol de decisión

K-Means

21

¿Qué es K-Means?

22

Cargando el data set de Iris

23

Construcción y evaluación del modelo con K-Means

24

Graficación del modelo

25

PlatziDoro Cápsula 2

Aprendizaje profundo

26

Introducción al aprendizaje profundo

27

Conceptos básicos de Tensor Flow

28

Red neuronal convolucional

29

Conociendo el set de datos para la creación de la red neuronal

30

Crea y entrena tu primera red neuronal convolucional con Tensor Flow

31

Evaluación de la red convolucional

32

PlatziDoro Cápsula 3

Despedida

33

Recomendaciones para analizar correctamente tu problema

34

Siguientes pasos para continuar aprendendiendo de Machine Learning

Matriz de confusión

14/34

Lectura

Los modelos de clasificación son capaces de predecir cuál es la etiqueta correspondiente a cada ejemplo o instancia basado en aquello que ha aprendido del conjunto de datos de entrenamiento. Estos modelos necesitan ser evaluados de alguna manera y posteriormente comparar los resultados obtenidos con aquellos que fueron entrenados.

Una manera de hacerlo es mediante la matriz de confusión la cual nos permite evaluar el desempeño de un algoritmo de clasificación a partir del conteo de los aciertos y errores en cada una de las clases del algoritmo.

Como su nombre lo dice tenemos una matriz que nos ayuda a evaluar la predicción mediante positivos y negativos como se muestra en la figura.

Predicción.png

Los verdaderos positivos (VP) son aquellos que fueron clasificados correctamente como positivos como el modelo.
Los verdaderos negativos (VN) corresponden a la cantidad de negativos que fueron clasificados correctamente como negativos por el modelo.
Los falsos negativos (FN) es la cantidad de positivos que fueron clasificados incorrectamente como negativos.
Los falsos positivos (FP) indican la cantidad de negativos que fueron clasificados incorrectamente como positivos.

Para que lo anterior quede más claro consideremos el siguiente ejemplo.

Un médico tiene cuatro pacientes y a cada uno se les solicitó un examen de sangre y por error el laboratorio realizó también un estudio de embarazo, cuando los pacientes llegan el médico les da los resultado.

A la primera paciente le da la noticia que está embarazada y ella ya lo sabía dado que tiene 3 meses de embarazo, es decir, un verdadero positivo.

El siguiente paciente llega y le dice que no está embarazada y es una clasificación evidente dado que es hombre (Verdadero negativo).

El tercer paciente llega y los resultados le indican que no está embarazada sin embargo tiene cuatro meses de embarazo, es decir, que la ha clasificado como falso negativo.

Y por último el cuarto paciente sus resultados han indicado que está embarazado sin embargo es hombre por lo cual es imposible, dando como resultado un falso positivo.

Lo anterior es un proceso que se realiza por cada instancia a clasificar y nos permite calcular la exactitud y su tasa de error con las siguientes fórmulas.

Exactitud.png
Tasa de error.png

Por lo tanto a mayor exactitud nuestro modelo ha aprendido mejor.

Aportes 22

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Gran resumen, termina de dejar en claro la clase anterior, sin embargo, la definición de falso positivo está errónea a mi parecer ya que dice:
"Los **falsos positivos (FP) **indican la cantidad de negativos que fueron clasificados incorrectamente como negativos."
y debería ser la cantidad de negativos que fueron clasificados incorrectamente como positivos.

Hay un error en la definición de falsos positivos.

el accuracy = (TP + TN) / (total de datos)
precision = (TP) / (TP + FP)
recall = (TP) / (TP + FN)

Super interesante !

Genial todo lo que podemos hacer con este modelo.

Un falso positivo, ¿también podría ser una mujer que sabe que NO esta embarazada sin embargo la prueba dice que SÍ lo esta? o exactamente como funciona esto de los falsos positivos y negativos?

Buen material para aclarar conceptos.

Muy buen material

y si quiero ingresar los datos de un paciente y que me digan si peude ser positivo o negativo como se haria?

Genial !! Me sirvió mucho para reforzar el tema.

Buen resumen!

Hay que tener en cuenta que existen otros indices que describen el clasificador, como lo puede ser la Sensibilidad, la Especificidad o la Precisión.

muy interesante

El modelo anterior tiene desbalanceo de clases, por lo que la métrica de exactitud no es la mas adecuada, ¿Porque?

  1. Dentro del conjunto de datos hay mas pacientes que no tienen diabetes y menos pacientes con diabetes.
  2. El modelo generaliza mejor para la clase dominante (Sin diabetes) debido a que hay mas información de ellos.
  3. Para la otra clase no generaliza bien debido a que el modelo absorbió mas información de la clase dominante.

Por lo que se recomienda usar una métrica mas como el f1_score que castiga este tipo de desbalanceo.

Gracias, buena lectura.

Cómo podemos mejorar la exactitud del modelo? mas datos? o usar redes neuronales?

Súper claro!! Se entendió perfectamente!!!

Muy buena explicación con excelentes ejemplos!!!

Excelente, me gusta este curso.

Los falsos positivos (FP) indican la cantidad de negativos que fueron clasificados incorrectamente como positivos.

¡Gracias por el artículo, es muy claro y conciso!

Exactitud: Capacidad de acercarse al valor real.
Tasa de error: Relación entre el número de elementos erróneos y el total.

Excelente.