- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Tracking de Datos y Modelado con MNLflow y Scikit-learn
Clase 9 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo se realiza el seguimiento de datos con MNLflow?
Para realizar un seguimiento eficaz de los datos con MNLflow, es crucial que los datos hayan sido preprocesados adecuadamente. Este trabajo previo asegura que el flujo de trabajo se desarrolle sin contratiempos, lo cual es fundamental para cualquier análisis robusto de Machine Learning. MNLflow, en combinación con Python, scikit-learn y técnicas de Logging, ofrece una solución poderosa para manejar este proceso, además de permitir el registro de eventos durante la ejecución que facilitan la identificación de posibles problemas. A través de la importación de librerías nativas de Python y el establecimiento de funciones clave, se organiza el trabajo para un flujo de Baseline efectivo.
¿Cómo se gestionan las funciones y los datos preprocesados?
La estructura del flujo comienza con la definición de funciones que faciliten el trabajo. Por ejemplo, una función para leer archivos CSV ayudará a recuperar datos ya procesados. Esta etapa también incluye la visualización de datos para entender su forma y organización, identificando aspectos como el desbalance en las etiquetas. Este análisis inicial es esencial para planificar cómo abordar el modelado y mitigar el desbalance.
Las etiquetas disponibles pueden visualizarse utilizando un "value count", lo cual revela la distribución y ayuda a identificar la necesidad de ajustes o técnicas adicionales. Subsecuentemente, se implementa un TrackingUri que, junto con un backend como mlflow, organiza los experimentos y clasifica las transformaciones, datos y resultados.
¿Qué herramientas se utilizan para la transformación y vectorización de datos?
El preprocesamiento del texto es un paso crítico en el análisis de datos. Usamos una funcionalidad clave como count vectorizer para vectorizar el corpus, convirtiéndolo en una representación numérica. Este procedimiento es invaluable para garantizar que las transformaciones aplicadas durante el entrenamiento se conserven e implementen correctamente en un entorno de producción.
Un aspecto esencial es guardar las transformaciones en un archivo de tipo picol, asegurando así que cualquier procesamiento esté alineado tanto para la fase de modelado como para la de producción. Además, técnicas como la frecuencia inversa de documentos se almacenan para su uso posterior, ayudando en el análisis de lenguaje natural.
En la división de los datos, los conjuntos de entrenamiento y prueba no son simplemente textuales. Ya se han transformado en características, así facilitando el trabajo del modelado que requiere representaciones numéricas, crucial en el aprendizaje automático.
¿Cómo implementar un reporte de clasificación con MLEflow?
Al implementar un displayClassificationReport, se inician procesos que analizan y evalúan el modelo, permitiendo el seguimiento y registro de métricas. Los modelos se preparan con anterioridad, y al ejecutarlos se rastrea la metadata a través de MLEflow. Identificar el nombre del modelo y etiquetar al desarrollador ofrece claridad sobre quién y cómo se llevó a cabo el trabajo.
¿Qué argumentos y buenas prácticas se deben considerar?
Los argumentos clave incluyen:
- Modelo: objeto previamente entrenado.
- Nombre del modelo: facilita la identificación en la UI de MLEflow.
- Developer: etiqueta que identifica el responsable del desarrollo.
- Datos de entrenamiento y prueba:
X-Train,Y-Test,Y-Train,Y-Test.
Documentación con DocStrings es esencial para describir las funciones, los argumentos de entrada y los valores de retorno, promoviendo claridad y reutilización del código.
¿Cómo ejecutar experimentos y anotar resultados?
Al ejecutar MLEflow start run, se inicia un experimento identificando claramente cada ejecución gracias a los run name. Esto no solo facilita el seguimiento de parámetros sino también el registro eficiente de resultados. Se emplea una lista vacía para almacenar métricas y se detalla un procedimiento sistemático para recoger predicciones y notas de los efectores.
Estas métricas incluyen cálculos del ROC AOC en distintas configuraciones, como el promedio ponderado y la clasificación multiclase, permitiéndonos ajustar los resultados y ofrecer una visión completa del rendimiento del modelo.
La capacidad de desarrollar un entorno bien documentado y controlado asegura un aprendizaje efectivo. Además, esta práctica reafirma que las metodologías implementadas son confiables durante el proceso y escalando a producción. ¡Sigue explorando y aprendiendo más sobre MNLflow y técnicas modernas de análisis de datos para elevar tus habilidades en Machine Learning!