- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Tracking de Modelos y Métricas con MLflow y CycleLearn
Clase 11 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo almacenar y hacer seguimiento de modelos en CycleLearn?
La relevancia de guardar adecuadamente un modelo de Machine Learning no puede subestimarse. Con CycleLearn, no solo almacenamos modelos como artefactos, sino que también podemos cargarlos posteriormente para realizar inferencias con datos inéditos. Este proceso se efectúa teniendo en cuenta las transformaciones previas realizadas. A través del uso de MLflow con CycleLearn, la tarea se facilita, permitiéndonos registrar y gestionar modelos de manera eficiente y organizada.
¿Cómo loguear un modelo con MLflow y CycleLearn?
Al usar MLflow con CycleLearn, el registro de un modelo se vuelve un proceso sencillo y fascinante. La función principal es guardar el modelo con un nombre claro y reconocible, lo que simplifica futuras referencias durante el proceso de inferencia.
MLflow.CycleLearn.log_model(model, "nombre_del_modelo")
Al asignar un formato específico al nombre del modelo, facilitamos su identificación, esencial al querer realizar inferencias o análisis adicionales con el modelo guardado.
¿Cómo calcular y registrar métricas de rendimiento?
Al trabajar con modelos, es crucial evaluar su rendimiento utilizando métricas específicas. En este contexto, se enfoca en el cálculo de la métrica de Área Bajo la Curva ROC (AUC) tanto para el conjunto de entrenamiento como para el de prueba. Al redondear estas métricas a dos decimales, obtenemos resultados más concisos y fáciles de interpretar y comparar.
Ejemplo de cálculo y registro de métricas:
-
Cálculo del AUC en entrenamiento y prueba
-
Registro de métricas adicionales como precisión y recall
-
Redondeo de resultados a dos decimales
auc_train = round(compute_auc(y_true_train, y_pred_train), 2) auc_test = round(compute_auc(y_true_test, y_pred_test), 2)
Al tener las métricas listas, se extienden y se registran para su fácil acceso:
metrics.extend([auc_train, auc_test, precision_train, recall_train, precision_test, recall_test])
¿Cómo generar un informe de clasificación y matriz de confusión?
El informe de clasificación y la matriz de confusión son recursos clave para comprender el desempeño de un modelo, especialmente en problemas de clasificación multicategoría. Estos permiten visualizar los errores y aciertos del modelo y tomar decisiones basadas en datos concretos.
Generación de informes de clasificación:
-
Creación de un reporte de clasificación tanto para los datos de entrenamiento como de prueba.
-
Decodificación de predicciones para una mejor visualización en la matriz de confusión.
report_train = classification_report(y_true_train, y_pred_train) report_test = classification_report(y_true_test, y_pred_test)
Presentar estos reportes a través de print en pantalla ofrece una visión clara de las métricas de rendimiento.
Creación de la matriz de confusión:
La matriz de confusión es configurada para destacar los verdaderos positivos, mostrando visualmente los errores y aciertos en las predicciones del modelo. La implementación de una función de decodificación facilita esta tarea al mapear índices numéricos a etiquetas comprensibles.
confusion_matrix_display(y_true_decoded, y_pred_decoded)
¿Qué funcionalidades adicionales puede ofrecer la función de tracking?
Al definir una función de tracking para registrar métricas y parámetros, se puede realizar un seguimiento detallado de modelos a lo largo del tiempo. Esto incluye:
- Registro de hiperparámetros del modelo.
- Creación de un informe de clasificación que utilice visualización de la matriz de confusión.
- Capacidad de integrar modelos validados mediante validaciones cruzadas o configuraciones de búsqueda en parrilla (grid search).
Estas funcionalidades combinadas facilitan un robusto seguimiento y mejora continua de los modelos a medida que se implementan y evalúan distintas estrategias y configuraciones.