Aprender los conceptos clave

1

Todo lo que aprender谩s sobre MA con Scikit-Learn

2

驴C贸mo aprenden las m谩quinas?

3

Problemas que podemos resolver con Scikit-learn

4

Las matem谩ticas que vamos a necesitar

Iniciar un proyecto con sklearn

5

Configuraci贸n de nuestro entorno Python

6

Instalaci贸n de librer铆as en Python

7

Datasets que usaremos en el curso

Optimizaci贸n de features

8

驴C贸mo afectan nuestros features a los modelos de Machine Learning?

9

Introducci贸n al PCA

10

Preparaci贸n de datos para PCA e IPCA

11

Implementaci贸n del algoritmo PCA e IPCA

12

Kernels y KPCA

13

驴Qu茅 es la regularizaci贸n y c贸mo aplicarla?

14

Implementaci贸n de Lasso y Ridge

15

Explicaci贸n resultado de la implementaci贸n

16

ElasticNet: Una t茅cnica intermedia

Regresiones robustas

17

El problema de los valores at铆picos

18

Regresiones Robustas en Scikit-learn

19

Preparaci贸n de datos para la regresi贸n robusta

20

Implementaci贸n regresi贸n robusta

M茅todos de ensamble aplicados a clasificaci贸n

21

驴Qu茅 son los m茅todos de ensamble?

22

Preparaci贸n de datos para implementar m茅todos de ensamble

23

Implementaci贸n de Bagging

24

Implementaci贸n de Boosting

Clustering

25

Estrategias de Clustering

26

Implementaci贸n de Batch K-Means

27

Implementacti贸n de Mean-Shift

Optimizaci贸n param茅trica

28

Validaci贸n de nuestro modelo usando Cross Validation

29

Implementaci贸n de K-Folds Cross Validation

30

Optimizaci贸n param茅trica

31

Implementaci贸n de Randomized

32

Bonus: Auto Machine Learning

Salida a producci贸n

33

Revisi贸n de nuestra arquitectura de c贸digo

34

Importar y exportar modelos con Sklearn

35

Creaci贸n de una API con Flask para el modelo

36

Cierre del curso

37

Material adicional para consultar

No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Validaci贸n de nuestro modelo usando Cross Validation

28/37
Recursos

Aportes 11

Preguntas 1

Ordenar por:

Los aportes, preguntas y respuestas son vitales para aprender en comunidad. Reg铆strate o inicia sesi贸n para participar.

Investigando en google encontr茅 que no se llama Hold On si no Hold Out

Validaci贸n de nuestro modelo usando Cross Validation

  1. La 煤ltima palabra siempre la van a tener los datos.
  • Todas nuestras intuiciones no tiene nada que hacer frente a lo que digan los datos y las matem谩ticas que aplicamos sobre estos datos. Por eso es importante siempre tener rigurosidad a la hora de evaluar los resultados que estamos recibiendo.
  1. Necesitamos mentalidad de testeo.
  • No se trata solamente de probar un poco al principio y un poco al final, sino que tendremos que probar constantemente durante todo el proceso, para poder encontrar cu谩l es la soluci贸n 贸ptima que realmente nos soluciona el problema que tenemos pendiente, todo esto:
    • con varias formas
    • con varios conjuntos de datos
    • con varias configuraciones de par谩metros
    • con varias distribuciones de nuestros datos
  1. Todos los modelos son malos, solamente algunos son 煤tiles.
  • Todos los modelos que nosotros hacemos en 煤ltimas son una sobre simplificaci贸n de lo que pasa realmente. Entonces nunca nuestros modelos van a corresponder con la realidad al cien por ciento. Si jugamos lo suficiente y si somos lo suficientemente h谩biles para configurar, vamos a llegar a un punto donde el modelo que estamos trabajando va a ser 煤til para ciertos casos espec铆ficos dentro del mundo real.
    .
    .
    .
    Tipos de validaci贸n

  • Hold-Out

Se trata de dividir nuestros datos entrenamiento/pruebas, b谩sicamente consiste en usar porcentajes fijos, por lo regular 70% de entrenamiento y 30% de pruebas.


驴Cu谩ndo utilizar Hold-on?

  • Se requiere un prototipado r谩pido.
  • No se tiene mucho conocimiento en ML.
  • No se cuenta con abundante poder de c贸mputo.
    .
    .
  • K-Folds

Usar validaci贸n cursada K-Fold, aqu铆 vamos a plegar nuestros datos k veces, el k es un par谩metro que nosotros definimos y en esos pliegues vamos a utilizar diferentes partes de nuestro dataset como entrenamiento y como test, de tal manera que intentemos cubrir todos los datos de entrenamiento y de test, al finalizar el proceso.


驴Cu谩ndo utilizar K-Folds?

  • Recomendable en la mayor铆a de los casos.

  • Se cuenta con un equipo suficiente para desarrollar ML.

  • Se require la integraci贸n con t茅cnicas de optimizaci贸n param茅trica.

  • Se tiene m谩s tiempo para las pruebas.
    .
    .

  • LOOCV

Validaci贸n cruzada LOOCV, Leave One Out Cross Validation. Este es el m茅todo m谩s intensivo, ya que haremos una partici贸n entre entrenamiento y pruebas, porque vamos a hacer entrenamiento con todos los datos, salvo 1 y vamos a repetir este proceso tantas veces hasta que todos los datos hayan sido probados.

驴Cu谩ndo utilizar LOOCV?

  • Se tiene gran poder de computo
  • Se cuetan con pocos datos para poder dividir por Train/Test
  • Cuando se quiere probar todos los casos posibles (para personas con TOC)

鈥淎ll models are wrong, but some are useful鈥

Los expertos en AI dicen que el que tiene exito en machine learning no es el que tiene el mejor algoritmo, sino el que tiene mas datos.

Lo que hace este profe de explicarte bien el porque y cuando usarlo antes de implementar el codigo, le suma muchos puntos. Ya que pocos lo hacen de esta manera tan adecuada y entendible.

LOOCV no es Left Only One Cross Validation sino Leave-One-Out-Cross-Validation

Tipos de validaci贸n.

  1. Hold-On: Dividir nuestros datos entrenamiento/pruebas, b谩sicamente consiste en usar porcentajes fijos, por lo regular 70% de entrenamiento y 30% de pruebas.
  2. K-Folds: Usar validaci贸n cursada, aqu铆 vamos a plegar nuestros datos k veces, el k es un par谩metro que nosotros definimos y en esos pliegues vamos a utilizar diferentes partes de nuestro dataset como entrenamiento y como test, de tal manera que intentemos cubrir todos los datos de entrenamiento y de test, al finalizar el proceso.
  3. LOOCV: Validaci贸n cruzada, este es el m茅todo m谩s intensivo, ya que haremos una partici贸n entre entrenamiento y pruebas, porque vamos a hacer entrenamiento con todos los datos, salvo 1 y vamos a repetir este proceso tantas veces hasta que todos los datos hayan sido probados.

驴Cu谩ndo utilizar Hold-on?

  1. Se requiere un prototipado r谩pido.
  2. No se tiene mucho conocimiento en ML.
  3. No se cuenta con abundante poder de c贸mputo.

驴Cu谩ndo utilizar K-Folds?

  1. Recomendable en la mayor铆a de los casos.
  2. Se cuenta con un equipo suficiente para desarrollar ML.
  3. Se require la integraci贸n con t茅cnicas de optimizaci贸n param茅trica.
  4. Se tiene m谩s tiempo para las pruebas.

Aqu铆 un video muy bueno sobre cross-validation

TOC= TRANSTORNO OBSESIVO COMPULSIVO

HOLD-ON

como se cuando es una resolucion optima ?