- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Optimización de Hiperparámetros en Modelos de Machine Learning
Clase 12 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo se realiza el research y selección de modelos?
El proceso de investigación y selección de modelos en Machine Learning es crucial para garantizar que se utilicen los algoritmos adecuados y los mejores hiperparámetros. Utilizar la técnica de búsqueda de grilla (Grid Search) es una de las formas más efectivas de lograrlo. Esta técnica permite definir un diccionario con varios hiperparámetros y, mediante una validación cruzada, se busca el conjunto óptimo de estos.
¿Qué elementos se consideran en el setup inicial?
- Modelo a Entrenar: Elegir el algoritmo base que se usará.
- Hiperparámetros: Crear un diccionario de búsqueda con diferentes valores posibles.
- Scoring: Definir cuál será la métrica a optimizar.
- Número de Jobs: Configurar cuántos procesos simultáneos usar.
- Propósito: Establecer el objetivo de optimización para los hiperparámetros.
Ejecutar este setup inicial es vital antes de sumergirse en entrenamientos más complejos. Además, los modelos baseline son una excelente manera de evaluar el punto de partida y decidir si las estrategias más complejas son necesarias.
¿Cómo manejar los errores durante el entrenamiento?
Durante el proceso de entrenamiento, es común encontrarse con errores en el código, por ejemplo, al intentar llamar métodos inexistentes. En tales casos, es esencial revisar el código, identificar la fuente del error y corregirla antes de continuar.
# Previamente teníamos el siguiente error:
# model.predict()
# donde debería ser algo como:
model.predict(x_test)
Corrigiendo este tipo de errores básicos, se asegura un entrenamiento fluido y sin interrupciones innecesarias.
¿Cuál es el papel de la matriz de confusión?
La matriz de confusión es una herramienta poderosa que se utiliza para evaluar el rendimiento de un modelo. Esta matriz muestra claramente verdaderos positivos, falsos positivos, verdaderos negativos y falsos negativos de las predicciones:
- Verdaderos Positivos: Emitidos cuando las predicciones coinciden con las etiquetas reales.
- Desbalance de Datos: Se observa en la matriz cuando los datos están desproporcionados.
Este desbalance puede llevar a un overfitting, donde el modelo se ajusta demasiado a los datos de entrenamiento y no se adapta bien a nuevas entradas.
¿Cuál es la importancia de la interfaz de MLflow?
MLflow ofrece una interfaz intuitiva para observar y comparar nuestros modelos de Machine Learning. Esto ayuda a identificar métricas críticas y determinar si hay un sobreajuste:
- Activar Entorno: Antes de usar MLflow, asegúrate de que el entorno esté activado correctamente.
- Verificar Tracking: Debe estar posicionado donde se almacena la información de seguimiento.
- Comparar Métricas: A través de MLflow puedes organizar y comparar métricas como precision y recall para tanto entrenamiento como pruebas.
La comparación efectiva y la organización de métricas importantes permiten optimizar y validar el modelo antes de su despliegue.
¿Por qué es importante la gestión de artefactos en Scikit-Learn?
Guardar modelos como artefactos, en Scikit-Learn o cualquier otra biblioteca, permite reutilizar instancias entrenadas sin necesidad de repetir entrenamientos costosos en el futuro. Esto es crucial para:
- Cargar Modelos por Run ID: Facilita las pruebas y validaciones de rendimiento.
- Pruebas Unitarias Pre-Despliegue: Asegura que el modelo esté listo para producción respondiendo correctamente ante estrés y validaciones.
Al integrar estos procedimientos, los profesionales pueden optimizar no solo el desarrollo de modelos, sino también su implementación y mantenimiento a largo plazo.