- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Validación de Modelos de Machine Learning con MLflow y SciPy
Clase 15 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo realizar pruebas en un modelo de producción completo?
El desarrollo de un modelo de machine learning no termina con su entrenamiento; de hecho, es apenas el inicio. Una parte crucial es someter al modelo a pruebas exhaustivas para garantizar su desempeño en un entorno de producción. En este contexto, te guiaremos paso a paso para testear un modelo usando MLflow, valiéndose de herramientas como SciPy para especificar el tipo de variables de entrada y maximizar la eficiencia.
¿Cuáles son los elementos clave para realizar un test eficaz?
Para probar de manera efectiva un modelo, primero necesitas importar SciPy, ya que es esencial para especificar el tipo de las variables de entrada. Además, se definirá una función llamada testModelFromMlplot que te permitirá ejecutar la evaluación del modelo. Sus parámetros incluyen:
modelName: Nombre que asignaste al registrar el modelo, por ejemplo, TicketClassifier.stage: Relacionado con un entorno de producción.Xtest: Conjunto de pruebas.- Las etiquetas verdaderas correspondientes.
Este enfoque garantiza una estructura clara para la funcionalidad y tipo de datos esperados, lo que facilita su implementación y mantenimiento.
¿Cómo cargar y evaluar el modelo?
Con la función definida, necesitarás cargar el modelo desde un path específico, utilizando una variable denominada modelHybrid. Este path incluirá el modelName y el stage definido. Una vez cargado el modelo empleando PythoncLoadModel, procederás a predecir sobre el conjunto de prueba.
La evaluación del modelo se realiza almacenando las predicciones y calculando métricas como accuracy score, lo cual retorna resultados confiables sobre el desempeño del modelo.
¿Cuáles son las ventajas y desventajas de MLflow en este contexto?
Ventajas de MLflow
MLflow ofrece diversas funcionalidades que optimizan la gestión de modelos de machine learning. Algunas de estas ventajas incluyen:
- Gestión del ciclo de vida: Permite un seguimiento trasparente de tus experimentos, documentando métricas e hiperparámetros que facilitarán futuras referencias.
- Interoperabilidad: Se integra sin problemas con otras herramientas open source como Hugging Face, TensorFlow y PyTorch, facilitando una mayor diversidad de proyectos.
- Trazabilidad y reproductibilidad: Oportunidad de replicar experimentos fácilmente usando los mejores hiperparámetros previos.
- Comunidad activa: Beneficio de un soporte comunitario robusto para resolver dudas o problemas.
Desventajas de MLflow
A pesar de sus fortalezas, MLflow también tiene ciertas desventajas:
- Curva de aprendizaje: Puede requerir tiempo aprender a utilizar los múltiples métodos y funciones que ofrece, especialmente porque varían entre versiones.
- Limitaciones funcionales: Algunas operaciones pueden verse restringidas, especialmente cuando se manejan grandes volúmenes de información y datos.
Existen además alternativas a MLflow que podrías considerar, como Tension Board, DVC (Data Version Control), y una opción cada vez más popular, Weighted Biases, que también ofrece herramientas para el seguimiento de experimentos y flujos de trabajo.
Tu capacidad para aprovechar al máximo las herramientas disponibles marca la diferencia en la eficacia de un proyecto de machine learning. Sigue explorando estas opciones y nunca dejes de aprender, la evolución constante es clave en el mundo de la tecnología.