Fundamentos de MLOps y tracking de modelos

1

¿Qué es MLOps y para qué sirve?

2

Etapas del ciclo de MLOps

3

Componentes de MLOps

4

Tracking de modelos en localhost con MLflow

5

Tracking de modelos en localhost: directorio personalizado

6

Tracking de modelos con MLflow y SQLite

7

Tracking de modelos con MLflow en la nube

Tracking del ciclo de vida de modelos de machine learning

8

Tracking de experimentos con MLflow: preprocesamiento de datos

9

Tracking de experimentos con MLflow: definición de funciones

10

Tracking de experimentos con MLflow: tracking de métricas e hiperparámetros

11

Tracking de experimentos con MLflow: reporte de clasificación

12

Entrenamiento de modelos baseline y análisis en UI de MLflow

13

MLflow Model Registry: registro y uso de modelos

14

Registro de modelos con mlflow.client

15

Testing de modelo desde MLflow con datos de prueba

16

¿Para qué sirve el tracking de modelos en MLOps?

Orquestación de pipelines de machine learning

17

Tasks con Prefect

18

Flows con Prefect

19

Flow de modelo de clasificación de tickets: procesamiento de datos y features

20

Flow de modelo de clasificación de tickets: integración de las tasks

21

Flow de modelo de clasificación de tickets: ejecución de tasks

22

¿Cómo se integra la orquestación en MLOps?

Despliegue de modelo de machine learning

23

Despligue con Docker y FastAPI: configuración y requerimientos

24

Despligue con Docker y FastAPI: definición de clases y entry point

25

Despligue con Docker y FastAPI: procesamiento de predicciones en main app

26

Despligue con Docker y FastAPI: configuración de la base de datos

27

Despliegue y pruebas de modelo de machine learning en localhost

28

Despliegue y pruebas de modelo de machine learning en la nube

29

¿Qué hacer con el modelo desplegado?

Monitoreo de modelo de machine learning en producción

30

¿Cómo monitorear modelos de machine learning en producción?

31

Entrenamiento de modelo baseline

32

Preparar datos para crear reporte con Evidently

33

Análisis de la calidad de los datos con Evidently

34

Creación de reportes con Grafana

35

¿Cómo mejorar tus procesos de MLOps?

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Despliegue y pruebas de modelo de machine learning en la nube

28/35
Recursos

Aportes 2

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Una alternativa de despliegue más económica (incluso gratuita), es trabajar bajo una arquitectura serverless, muy útil para este tipo de aplicaciones livianas de un solo método. Por ejemplo haciendo un push de la imagen de Docker a un ECR y crear una función Lambda desde esa imagen; para consumir la función puedes integrarla directamente con API Gateway o crear el endpoint directamente en la opción de URL de lambda. Como base de datos se puede usar DynamoDB la cual usando boto3 se puede instanciar la tabla e insertar los valores directamente desde la función
tengo dudas sobre cual Grupo de seguridad debe modificarse, tengo uno que usa SSH con puerto 22, el custom TCP con puerto 5000 pero no 3000. Deberian mostrar más sobre la configuracion, sin saltarse pasos. Adicionalmente, deberia mostrarse que archivos se modifico entre 1 repositorio y el otro, no se entiende nada, que nos funcione la ejecucion no significa que podamos replicarlo, ya que no se explica los pasos, sobre todo esta ultima parte de poner en produccion ya sea localhost o nube.