- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Tracking de Métricas e Hiperparámetros con Validación Cruzada
Clase 10 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo realizar un seguimiento eficaz de las métricas en un modelo predictivo?
La capacidad de realizar un seguimiento eficaz de las métricas de un modelo predictivo es crucial para el desarrollo y mejora continua de modelos de aprendizaje automático. Esto nos permite auditar y comprender mejor nuestro modelo, brindando detalles que pueden orientar nuestras decisiones en fases futuras del proceso de desarrollo. En esta clase, aprenderemos cómo implementar un seguimiento adecuado utilizando técnicas de validación cruzada y búsqueda en grilla, un camino crucial para optimizar nuestro modelo predictivo.
¿Cuál es el significado de las métricas 'ROC AUC' y cómo se integran en el seguimiento?
El ROC AUC (Receiver Operating Characteristic - Area Under the Curve) es una métrica fundamental para evaluar la performance de modelos clasificatorios. Esta métrica permite detectar la capacidad del modelo para distinguir entre clases, representando este comportamiento en una gráfica ROC.
Para llevar un control adecuado de estas métricas, es esencial utilizar herramientas que nos permitan registrar cada una de ellas. Así, al ejecutar un código de seguimiento de estas métricas, podemos listar las métricas de entrenamiento y prueba de la siguiente manera:
metrics.extend([roc_auc_train, roc_auc_test])
El uso de logger para mostrar la información es crucial, aunque no suficiente, ya que se debe hacer un seguimiento real de estas métricas utilizando herramientas como emiliflow.logmetric.
¿Cómo implementamos predicciones sobre los datos y el seguimiento de precisión y recall?
Tomar predicciones sobre los conjuntos de datos de entrenamiento y prueba es esencial para evaluar diferentes métricas de evaluación, como precision y recall, aplicando ambas en modelos discriminativos.
La implementación del código para hacer predicciones y el registro de las métricas sería como sigue:
train_pred = model.predict(train_data)
test_pred = model.predict(test_data)
# Log metrics for precision and recall
emiliflow.logmetric("precision_train", precision_score(train_labels, train_pred))
emiliflow.logmetric("recall_train", recall_score(train_labels, train_pred))
emiliflow.logmetric("precision_test", precision_score(test_labels, test_pred))
emiliflow.logmetric("recall_test", recall_score(test_labels, test_pred))
Vale la pena señalar que estas métricas nos brindan una visión más amplia de la capacidad de rendimiento y generalización del modelo.
¿Cómo manejar el seguimiento de hiperparámetros con validación cruzada y búsqueda en grilla?
Comprender y realizar un seguimiento de los hiperparámetros utilizados en la validación cruzada y la búsqueda en grilla puede ser complicado, pero es esencial para optimizar eficazmente el modelo. La función de seguimiento que utilizaremos podrá identificar si un modelo fue entrenado con validación cruzada o no, ajustando dinámicamente los parámetros para registrar la información necesitada sin interrupciones.
En el caso de un modelo entrenado con búsqueda en grilla:
try:
if use_cv:
best_params = model.best_params_
else:
best_params = model.get_params()
emiliflow.logParams(best_params)
except Exception as e:
logger.info(f"Error encontrado: {str(e)}")
Este enfoque garantiza que, independientemente de cómo se haya entrenado el modelo, los mejores hiperparámetros sean reconocidos y rastreados, permitiéndonos optimizar futuras implementaciones.
¿Por qué es importante el registro de hiperparámetros en el proceso de modelado?
El registro de los hiperparámetros es crucial para entender el comportamiento y las características de un modelo. Nos ayuda a:
- Reproducibilidad: Permite a otros reproducir tu trabajo exacto en un futuro cercano.
- Análisis exhaustivo: Facilita el análisis comparativo entre diferentes modelos y configuraciones.
- Mejora continua: Proporciona una base para la optimización y mejora continua de modelos predictivos.
Al automatizar el proceso de registro de hiperparámetros, podemos asegurar que estamos listos para iterar utilizando los datos y configuraciones previas, fundamental para el aprendizaje automático moderno.