- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Autoescalado y Entrega Continua de Modelos en Producción
Clase 29 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Qué hacer tras desplegar un modelo de machine learning en producción?
Una vez que hayas desplegado un modelo de machine learning en producción, el trabajo no termina ahí. Es fundamental asegurar una serie de acciones y medidas para mantener la eficiencia y continuidad del servicio. Aquí desglosamos los puntos más esenciales que debes tener en cuenta.
¿Cómo garantizar un adecuado monitoreo?
El monitoreo constante del modelo es vital para su funcionamiento óptimo. Esto no solo implica vigilar el comportamiento del modelo, sino también tomar acciones preventivas y correctivas que aseguren su estabilidad.
- Implementa un sistema de alertas en caso de que el rendimiento del modelo decaiga.
- Revisa periódicamente los logs del sistema para identificar patrones o anomalías.
- Evalúa continuamente los resultados del modelo a través de métricas predefinidas para detectar desviaciones.
¿Qué papel juega la infraestructura en la producción?
La infraestructura sobre la que se despliega el modelo es crucial, especialmente cuando hay un incremento en el número de solicitudes de los clientes. Si no se está preparado para soportar estos requerimientos, el servicio podría fallar. Para prevenir esto:
- Autoescalado: Asegura que la infraestructura pueda escalar automáticamente con el aumento del tráfico. Utiliza servicios de la nube que ofrezcan esta capacidad.
- Mantén las canalizaciones de CI/CD (Integración continua y Entrega continua) actualizadas para incorporar cambios sin interrumpir el servicio.
- Optimiza el uso de recursos en la nube, lo que permitirá extenderlos cuando sea necesario y evitar interrupciones en el servicio.
¿Qué otras recomendaciones son clave?
Para mejorar aún más la implementación de modelos en un entorno de producción, considera las siguientes recomendaciones:
- Requisitos de infraestructura: Asegúrate de que la infraestructura cumpla con los requisitos necesarios en función del serving, es decir, cómo se ofrece el modelo al usuario final.
- Actualización de flujos de trabajo: Mantén los flujos de trabajo actualizados para adaptarte a cambios o mejoras necesarias. Esto incluye tanto software como hardware.
- Material de referencia: Aprovecha los materiales adicionales, como documentación descargable sobre despliegue de modelos, para repasar y consolidar tus conocimientos.
Participar activamente en el monitoreo y mantenimiento de un modelo desplegado te ayudará a minimizar riesgos, optimizar recursos y asegurar el éxito continuo del negocio. Con estas estrategias bien implementadas, estarás mejor preparado para los desafíos que puedan surgir en el camino. Siempre recuerda que el aprendizaje y la adaptación son claves en este apasionante mundo del machine learning en producción.