Fundamentos de MLOps y tracking de modelos

1

Implementación de MLOps para Modelos de Machine Learning

2

Tracking de Modelos de Machine Learning con MLflow Local

3

Seguimiento local de experimentos con MLflow usando folder personalizado

4

Principios y Etapas del MLOps en Machine Learning

5

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización

6

Tracking de Experimentos con MLflow y Bucket en SQLite

7

Tracking de Experimentos de Machine Learning con AWS y MLflow

Tracking del ciclo de vida de modelos de machine learning

8

Clasificación de Tickets con Procesamiento de Lenguaje Natural

9

Tracking de Datos y Modelado con MNLflow y Scikit-learn

10

Tracking de Métricas e Hiperparámetros con Validación Cruzada

11

Tracking de Modelos y Métricas con MLflow y CycleLearn

12

Optimización de Hiperparámetros en Modelos de Machine Learning

13

Creación y gestión de experimentos con MLflow y Scikit-Learn

14

Promoción y Gestión de Modelos en Azure con MLflow

15

Validación de Modelos de Machine Learning con MLflow y SciPy

16

Tracking y Trazabilidad en MLOps con MLflow

Orquestación de pipelines de machine learning

17

Creación de tareas en Prefect para flujos de Machine Learning

18

Creación de Flujos de Trabajo con Prefect para Machine Learning

19

Pipeline de Machine Learning para Clasificación de Tickets

20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos

21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas

22

Orquestación de Flujos Flexibles con Prefect y Python

Despliegue de modelo de machine learning

23

Despliegue de Aplicaciones con Docker y FAS API en AWS

24

Creación de Aplicación con PaaS API, Docker y Grafana

25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning

26

Configuración de Base de Datos en SQLModel y Docker Compose

27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman

28

Implementación de Modelos en Entornos Productivos con AWS y Docker

29

Autoescalado y Entrega Continua de Modelos en Producción

Monitoreo de modelo de machine learning en producción

30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave

31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift

32

Modelo de Clasificación con Support Vector Classifier

33

Análisis de Drift y Valores Faltantes con Evidently

34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning

35

Mejora de Procesos MLOps e Infraestructura Escalable

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift

31/35
Recursos

¿Cómo llevo a cabo el monitoreo de un modelo en producción?

Monitorear un modelo en producción es una tarea crucial que garantiza su funcionalidad y precisión a lo largo del tiempo. Después de colocar tu modelo en producción, no puedes simplemente olvidarte de él. Los datos cambian, las tendencias evolucionan, y tu modelo puede perder efectividad. Para asegurarte de que siga siendo relevante y preciso, es esencial hacer un seguimiento constante del rendimiento y la calidad de los datos. Aquí te mostraré cómo utilizar algunas librerías comunes en el campo de MLOps para asegurar la estabilidad y efectividad de tu modelo.

¿Cómo analizo el comportamiento de los datos?

Para monitorear el comportamiento de los datos, primero necesitas establecer una línea base o modelo Baseline. Esto implica trabajar con librerías como Scikit-Learn y Pandas para procesar y transformar tus datos.

  1. Leer y describir los datos: Siempre es buena práctica realizar un describe() de tus datos para entender:
  • Total de registros.

  • Cantidad de etiquetas.

  • Valores únicos y la moda.

    import pandas as pd

    Leer datos

    data = pd.read_csv('Data/tu_archivo.csv') print(data.describe())

  1. Verificar el balance de etiquetas: Usar value_counts() para identificar desbalances en las etiquetas, lo que puede indicar complejidades en el modelo.

    Contar valores por etiqueta

    counts = data['relevant_topic'].value_counts() print(counts)

  2. Convertir datos de texto a numéricos: Es fundamental cuando trabajamos con modelos de aprendizaje automático, asegurando la representación adecuada de los datos para su análisis.

¿Cuál es el propósito de un modelo DUMY?

Un modelo DUMY o Baseline ayuda a determinar la estabilidad del sistema, considerando que el modelo en producción no siempre debe ser el más complejo. Este modelo simple evalúa si el modelo actual aún es suficiente dado el cambio constante en los datos.

  1. Dividir los datos: Los datos se dividen en conjuntos de entrenamiento y prueba. Esto ayuda a ver cómo el modelo Baseline se comporta con nuevos datos.

    Dividir datos en entrenamiento y prueba

    from sklearn.model_selection import train_test_split

    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=42)

  2. Creación del modelo DUMY: Se genera utilizando la clase mayoritaria de los datos de entrenamiento para establecer una referencia simple.

    from sklearn.dummy import DummyClassifier

    Crear modelo DUMY

    dummy_classifier = DummyClassifier(strategy="constant", constant=majority_class) dummy_classifier.fit(x_train, y_train)

  3. Evaluación del modelo: Compara sus predicciones con las reales para evaluar las métricas de rendimiento y determinar qué tan efectivo es.

    from sklearn.metrics import classification_report

    Realizar predicciones y evaluar

    predictions = dummy_classifier.predict(x_test) print(classification_report(y_test, predictions))

¿Qué hacer si el modelo DUMY no es suficiente?

Si el modelo DUMY muestra que no es capaz de reconocer las clases de manera precisa, es un indicativo de que el modelo en producción podría no estar capturando efectivamente los patrones actuales de los datos.

  • Probar otros modelos: Intenta implementar modelos como Support Vector Machine para obtener insights adicionales.
  • Reentrenamiento del modelo: Considera reentrenar o ajustar tu modelo en base a nuevos datos o subpoblaciones.
  • Automatización del proceso: Implementar mecanismos que detecten automáticamente cuándo un modelo no es suficiente y requiera ser actualizado.

Métodos para mejorar ilustraciones de Data Drift

Ante el fenómeno de Data Drift, donde los datos de entrada cambian con respecto a los datos originales, es esencial desarrollar un sistema de detección que pueda ejecutar acciones correctivas apropiadas.

  • Implementación de soluciones dinámicas: Desarrollo de pipelines que automáticamente reentrenan y ajustan modelos conforme a las necesidades del negocio.
  • Monitoreo constante: Asegurar la existencia de sistemas que constantemente chequeen la alineación de predicciones con versiones actuales de los datos.

Adoptando estas estrategias no solo asegurarás que tu modelo siga siendo relevante, sino que también garantizarás que se mantenga a la vanguardia de las necesidades del negocio, resistiendo al ineluctable cambio en los datos. Siempre recuerda, el monitoreo es una inversión en la longevidad y efectividad de tu modelo. ¡Sigue aprendiendo y mejorando tus habilidades en MLOps!

Aportes 1

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Al final de la clase, una parte se repite. Hace falta hacer control de calidad en este curso.