- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Tracking de Modelos de Machine Learning con MLflow Local
Clase 4 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Qué es el tracking en Machine Learning?
El tracking es una herramienta esencial en Machine Learning que permite registrar métricas de rendimiento y los hiperparámetros de un modelo. Adicionalmente, ofrece la posibilidad de etiquetar con información relevante, como el nombre del desarrollador o el equipo de desarrollo. Esto no solo facilita la organización y seguimiento del progreso, sino que también ayuda en la reproducibilidad de experimentos. En este contenido, exploraremos cómo implementar el tracking usando MLflow y su backend, especialmente de manera local.
¿Cómo trackear con MLflow localmente?
Para incorporar MLflow en un proyecto de Machine Learning local, primero es fundamental preparar el ambiente. En el repositorio, encontrarás recursos cruciales como el archivo pyproject.tom que describe el entorno con Poetry y las versiones de Python y dependencias empleadas. También, si no estás familiarizado con Poetry, hay un README en la sección de configuración del entorno que proporciona instrucciones detalladas para establecer el ambiente.
Código de ejemplo para tracking en MLflow
import mlflow
from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
# Set up experiment
mlflow.set_experiment("iris_experiment")
# Start run
with mlflow.start_run(run_name="example_1"):
# Load data
X, y = load_iris(return_X_y=True)
# Define hyperparameters
params = {"C": 0.1, "random_state": 42}
# Log parameters
mlflow.log_params(params)
# Train model
model = LogisticRegression(**params).fit(X, y)
# Make predictions
predictions = model.predict(X)
# Log metric
accuracy = accuracy_score(y, predictions)
mlflow.log_metric("accuracy", accuracy)
# Log model
mlflow.sklearn.log_model(model, "model")
Este ejemplo detalla paso a paso el proceso de configuración de un experimento, inicialización del tracking, carga de datos, establecimiento de un modelo de regresión logística y su evaluación a través de la métrica 'accuracy'.
Visualización de experimentos en MLflow
Después de ejecutar el código, los artefactos generados y almacenados se organizan en la carpeta predeterminada MLruns. Para visualizar los experimentos de manera más amigable, es posible acceder a la interfaz gráfica de MLflow via navegador:
- Asegúrate de que el entorno con MLflow esté activado.
- Localiza el notebook ejecutado en el mismo directorio.
- Soluciona cualquier error de conexión borrando caché y datos del navegador de las últimas 24 horas.
Ejecutando mlflow ui en la terminal, se obtiene una dirección IP pública para ver en el navegador. Allí, el panel muestra experimentos como iris_experiment con detalles sobre parámetros, métricas y artefactos asociados, proporcionando herramientas útiles para la comparación visual de modelos.
Importancia de la trazabilidad y comparación de modelos
La interfaz de MLflow no solo presenta el tracking de experimentos, sino que también asegura la trazabilidad al ofrecer detalles sobre los requerimientos del entorno de Python. Esto es crucial para la reproducibilidad, permitiendo que otros puedan entrenar el mismo modelo bajo condiciones controladas. Además, la posibilidad de comparar fácilmente métricas como el accuracy entre múltiples modelos ayuda a identificar de manera visual y efectiva cuál tiene el mejor desempeño.
A medida que te sumerjas en proyectos más avanzados, el tracking de MLflow será tu aliado para comprobar la eficiencia de tus modelos y adoptar decisiones informadas en el proceso de desarrollo. ¡Sigue explorando y optimizando tus habilidades en Machine Learning!