Fundamentos de MLOps y tracking de modelos

1

¿Qué es MLOps y para qué sirve?

2

Etapas del ciclo de MLOps

3

Componentes de MLOps

4

Tracking de modelos en localhost con MLflow

5

Tracking de modelos en localhost: directorio personalizado

6

Tracking de modelos con MLflow y SQLite

7

Tracking de modelos con MLflow en la nube

Tracking del ciclo de vida de modelos de machine learning

8

Tracking de experimentos con MLflow: preprocesamiento de datos

9

Tracking de experimentos con MLflow: definición de funciones

10

Tracking de experimentos con MLflow: tracking de métricas e hiperparámetros

11

Tracking de experimentos con MLflow: reporte de clasificación

12

Entrenamiento de modelos baseline y análisis en UI de MLflow

13

MLflow Model Registry: registro y uso de modelos

14

Registro de modelos con mlflow.client

15

Testing de modelo desde MLflow con datos de prueba

16

¿Para qué sirve el tracking de modelos en MLOps?

Orquestación de pipelines de machine learning

17

Tasks con Prefect

18

Flows con Prefect

19

Flow de modelo de clasificación de tickets: procesamiento de datos y features

20

Flow de modelo de clasificación de tickets: integración de las tasks

21

Flow de modelo de clasificación de tickets: ejecución de tasks

22

¿Cómo se integra la orquestación en MLOps?

Despliegue de modelo de machine learning

23

Despligue con Docker y FastAPI: configuración y requerimientos

24

Despligue con Docker y FastAPI: definición de clases y entry point

25

Despligue con Docker y FastAPI: procesamiento de predicciones en main app

26

Despligue con Docker y FastAPI: configuración de la base de datos

27

Despliegue y pruebas de modelo de machine learning en localhost

28

Despliegue y pruebas de modelo de machine learning en la nube

29

¿Qué hacer con el modelo desplegado?

Monitoreo de modelo de machine learning en producción

30

¿Cómo monitorear modelos de machine learning en producción?

31

Entrenamiento de modelo baseline

32

Preparar datos para crear reporte con Evidently

33

Análisis de la calidad de los datos con Evidently

34

Creación de reportes con Grafana

35

¿Cómo mejorar tus procesos de MLOps?

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Análisis de la calidad de los datos con Evidently

33/35
Recursos

Aportes 2

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Evidently utiliza el método de divergencia de Jensen-Shannon para hacer el análisis de data drift, este método es simplemente una medida de similitud entre dos distribuciones de probabilidad. el algoritmo consiste en tomar los datos de referencia y de producción, calcular las distribuciones de probabilidad para una o más características de interés en ambos conjuntos de datos, aplicar la fórmula de JS para calcular la divergencia entre las distribuciones de cada característica en los dos conjuntos de datos. Un valor de JS cercano a 0 indica que las dos distribuciones son muy similares, mientras que un valor más alto sugiere diferencias significativas, indicando la presencia de data drift. Otros métodos más sencillos para analizar data drift puede ser una prueba de hipótesis de comparación de medias entre las muestras de datos de referencia y producción utilizando por ejemplo t-student o chi-2. Si el p-value es menor al nivel de significancia (0.05 generalmente) se rechaza que las dos muestras sean iguales y se concluye que hay evidenciaa significativa para determinar que la variable analizada ha sufrido un drift
Debo decir que la clase es muy densa pero muy buena. para llegar a entender todo lo que se menciona hasta este punto es necesario tener experiencia minima en despliegues a producción de modelos ML. gracias, pude entender el concepto Data Drift y como estos resultados pueden evaluar la cadencia del modelo