- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
Clase 3 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cuáles son los componentes esenciales de infraestructura en MLOps?
El mundo de MLOps está lleno de desafíos, y uno de los más destacados es configurar una infraestructura robusta. Es fundamental entender cómo controlar cada componente y cómo integrarlos adecuadamente para asegurar el éxito de los proyectos de Machine Learning. Te invito a descubrir el papel que desempeñan herramientas ya familiares como GitHub, CI/CD, y otras tecnologías emergentes.
¿Por qué es crucial el control de versiones?
El control de versiones es la base de un proyecto de MLOps bien gestionado. Este proporciona un registro detallado de todo el desarrollo que se realiza con el código. Los repositorios en plataformas como GitHub o GitLab no solo facilitan esta tarea, sino que también integran procesos críticos como la Integración Continua (CI) y la Entrega Continua (CD). Estos procesos aseguran que el desarrollo y despliegue en equipos de múltiples desarrolladores se lleve a cabo de manera ordenada, eficiente y sin romper la funcionalidad actual del software.
¿Qué papel juegan la integración y entrega continua en MLOps?
-
Integración Continua (CI): Permite identificar problemas de desarrollo temprano utilizando pruebas automatizadas. Garantiza que el código cumpla con las mejores prácticas, como el uso correcto de librerías y la creación de funciones eficientes.
-
Entrega Continua (CD): Va más allá al asegurar que las actualizaciones de servicio o aplicaciones puedan implementarse rápidamente. Esto incluye pruebas exhaustivas para garantizar que la infraestructura pueda manejar cambios como reentrenamientos de modelos de Machine Learning sin interrupción.
¿Cómo se maneja la orquestación en la infraestructura de MLOps?
La orquestación es vital, dado que une todos los procesos del flujo de trabajo de Machine Learning desde la adquisición de datos hasta la ejecución final. Frameworks como Data Version Control (DVC), Prefect y HIDRA son herramientas esenciales que facilitan la automatización del pipeline, eliminando la necesidad de intervención manual y permitiendo así un flujo completamente automático.
¿Cómo se gestionan los modelos y los datos en MLOps?
El versionado de datos y modelos es clave en MLOps. Ofrecen un entorno controlado para realizar experimentaciones variadas. Estos sistemas de gestión permiten:
- Almacenar metadatos desde modelos hasta artefactos.
- Asignar estados o etapas a los modelos, identificando si están en pruebas o en producción.
- Integrar y manipular versiones del modelo de manera segura dentro de repositorios.
¿Qué son el Compute Serving y el Model Registry?
-
Batch Serving: Ideal para grandes volúmenes de datos. Permite dividir la información en lotes, procesarla, y almacenar las predicciones para análisis o toma de decisiones posteriores.
-
Real-Time Serving: Facilita predicciones inmediatas y exige una infraestructura enfocada en minimizar la latencia y optimizar el tráfico de red.
¿Por qué es importante el monitoreo en MLOps?
La supervisión constante de los modelos deployed es fundamental para garantizar su precisión y relevancia continua. Herramientas como Grafana habilitan la visualización en tiempo real de las inferencias realizadas y la creación de dashboards para monitorear el desempeño del modelo. Esto permite a los equipos detectar obsolescencia y ajustarse rápidamente a las cambios necesarios.
Embárcate en la construcción de un flujo de trabajo robusto en MLOps y utiliza estos componentes esenciales para asegurar la eficiencia y efectividad de tus proyectos de Machine Learning.