- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Promoción y Gestión de Modelos en Azure con MLflow
Clase 14 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Por qué son importantes las pruebas de integridad?
Las pruebas de integridad son fundamentales para asegurar la eficacia y la calidad de los modelos de Machine Learning. Estas pruebas permiten la trazabilidad del proceso desde la adquisición hasta la transformación de datos. A menudo se pasa por alto la calidad de los datos, lo cual es crucial, ya que determinar la calidad garantiza que los datos sean funcionales y efectivos para las soluciones de Machine Learning. Sin las pruebas adecuadas, existe el riesgo de que los datos no sean lo suficientemente buenos para producir resultados precisos.
¿Cómo promover un modelo en un flujo de trabajo automatizado?
Es necesario evaluar la infraestructura y el comportamiento del sistema antes de promover un modelo. La búsqueda de Azure Runs utilizando el método search_runs permite filtrar por características específicas, como ID de experimentos o etiquetas, facilitando la selección de ejecuciones relevantes. Por ejemplo, se puede limitar la búsqueda a ejecuciones activas y ordenarlas según métricas específicas como el precision test.
search_runs(experiment_id='1', filter_string='', order_by=['metrics.precision DESC'], top=5)
Posteriormente, la promoción de un modelo incluye la actualización de su estado, como transición de staging a production, utilizando el método transition_model_version_stage.
transition_model_version_stage(model_name='tickets_classifier', version=2, stage='Production')
¿Cómo registrar y versionar modelos?
Registrar un modelo es esencial para controlarlo y versionarlo en un entorno de producción. Esto se realiza vinculando un run ID y un modelo previamente registrado. La vinculación y el registro de un nuevo modelo crea una nueva versión si ya existía un registro anterior. En este ejemplo, se generó una versión 3 para el tickets_classifier.
model_uri = f"runs:/{run_id}/model"
mlflow.register_model(model_uri=model_uri, name="tickets_classifier")
Cada registro de modelo incluye el nombre del modelo y el número de versión, lo que facilita su rastreo y gestión.
¿Cuál es el esquema para manejar las versiones de los modelos?
Obtener las últimas versiones de un modelo asegurará que trabajes con la más reciente y optimizada. Al utilizar métodos como get_latest_versions, puedes identificar las versiones actuales y gestionar sus estados.
mlflow_client = mlflow.tracking.MlflowClient()
latest_versions = mlflow_client.get_latest_versions("tickets_classifier")
Además, es vital automatizar las tareas de transición utilizando scripts para no depender de interfaces gráficas, aumentando así la eficiencia operativa.
¿Cómo optimizar la métrica de un modelo en un entorno productivo?
El éxito de un modelo en producción depende de seleccionar la métrica adecuada que alinee con las necesidades del negocio. Identificar y optimizar las mejores métricas garantiza que el modelo tenga un mejor rendimiento. Los pasos mencionados, desde conectar con un cliente de MLflow hasta ejecutar pruebas en un entorno productivo, contribuyen a una gestión eficaz del modelo en su ciclo de vida.
La práctica continua de pruebas permitirá mantener un flujo de trabajo automático y fluido, adaptándose a las circunstancias cambiantes y los requerimientos específicos del negocio.