- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Principios y Etapas del MLOps en Machine Learning
Clase 2 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cuáles son las etapas de MLOps y cómo se interrelacionan?
En el vibrante mundo de los sistemas de aprendizaje automático, comprender las etapas del MLOps es esencial para cualquier equipo de trabajo involucrado en procesos de Machine Learning. Estas etapas, divididas en principios, abarcan desde el diseño, hasta el desarrollo de modelos y operaciones. Con un enfoque bien estructurado, cada etapa juega un rol crucial en la longevidad y eficiencia de los modelos.
¿En qué consiste la fase de diseño en MLOps?
La fase de diseño es el cimiento de todo proyecto de Machine Learning. Se enfoca en la compresión profunda del negocio y el problema que se busca resolver. Aquí, se determinan los objetivos claros al:
- Investigar y entender a los usuarios potenciales.
- Definir los requerimientos de infraestructura.
- Diseñar el software adaptado a las necesidades del negocio.
Además, antes de optar por el uso del Machine Learning, se hace indispensable evaluar si esta tecnología es apropiada para el problema en cuestión. También se deben clarificar las fuentes de datos que nutrirán los futuros experimentos de aprendizaje automático.
¿Cómo se desarrolla la fase de experimentación de modelos?
Una vez pasada la etapa de diseño, la fase de desarrollo de modelos cobra vida. Aquí se abordan temas técnicos como la transformación y limpieza de los datos. Esto incluye:
- Manejo de datos faltantes con métodos de imputación o eliminación.
- Evaluación de la relación entre las características y el objetivo.
- Validación de supuestos, como la no multicolinealidad en regresiones.
- Testing exhaustivo del modelo con datos de prueba y validación.
El objetivo primordial es obtener modelos de alta calidad que puedan ser eficaces en producción.
¿Qué sucede en la fase de operaciones?
Finalmente, en la fase de operaciones, se concentra la transición del modelo hacia un entorno productivo. Se busca que el modelo:
- Sea accesible bajo un tipo de "serving" o arquitectura definida.
- Integre tareas mediante canalizaciones CI/CD (Continuous Integration/Continuous Delivery).
Adicionalmente, se deben implementar entrenamientos y monitoreos constantes. Esto asegura que el modelo se actualice según el flujo de nueva información. Si un modelo deviene obsoleto, se deben activar triggers para entrenar nuevamente con los nuevos datos disponibles o volver al desarrollo si es necesario mejorar la funcionalidad del modelo.
¿Cómo se integra MLOps en un flujo típico de Machine Learning?
Una vez claras las etapas de MLOps, es fundamental entender cómo se integran en el flujo típico de Machine Learning, asegurando una sincronización fluida entre cada fase.
¿Qué involucra la etapa de experimentación?
Esta etapa abarca el análisis y comprensión detallada de los datos. Se experimenta con modelos variados, evaluando sus rendimientos bajo distintos parámetros. Herramientas comunes en esta fase incluyen Jupyter Notebooks, donde se documenta el código fuente experimental. Las prácticas recomendadas insisten en almacenar este código en repositorios enriquecidos con pipelines de CI/CD para asegurar un desarrollo limpio y eficiente.
¿Cómo se automatiza la etapa de operaciones?
La automatización aquí busca liberar la carga de tareas manuales repetitivas de la fase de desarrollo:
- Se implementan pipelines para integrar Data Engineering con transformaciones automatizadas y Model Engineering.
- Se almacena la metadata relevante (incluyendo versiones de modelos y preprocesadores).
- Se registra el modelo más prometedor y se pasa a ambientes de prueba o producción.
El objetivo es ofrecer el modelo como un servicio confiable y eficiente, permitiendo la generación de predicciones que alimenten bases de datos y se presten al monitoreo constante.
¿Qué hacer cuando los modelos no cumplen las expectativas?
En caso de que las predicciones resulten insatisfactorias, se deben activar las alarmas necesarias para reentrenar los pipelines y ajustar el modelo. Si esto no mejora el desempeño, se realizará un regreso a la fase de diseño para reevaluar el entorno del problema y ajustar las estrategias. Esto reafirma la importancia del flujo cíclico del MLOps, donde cada fase está estrechamente ligada a las demás para garantizar un ciclo de vida de modelo saludable.
Este enfoque integral del MLOps no solo garantiza modelos de Machine Learning relevantes y efectivos, sino también fomenta un ambiente propicio para la innovación continua y la adaptación a nuevas tendencias e información del negocio.