Es posible que al abrir mlflow ui no puedan visualizar los experimentos, esto se debe a que el .db está quedando dentro de la carpeta tracking. deben ejecutar
mlflow ui --backend-store-uri sqlite:///tracking/mlflow.db
Fundamentos de MLOps y tracking de modelos
¿Qué es MLOps y para qué sirve?
Tracking de modelos en localhost con MLflow
Tracking de modelos en localhost: directorio personalizado
Etapas del ciclo de MLOps
Componentes de MLOps
Tracking de modelos con MLflow y SQLite
Tracking de modelos con MLflow en la nube
Tracking del ciclo de vida de modelos de machine learning
Tracking de experimentos con MLflow: preprocesamiento de datos
Tracking de experimentos con MLflow: definición de funciones
Tracking de experimentos con MLflow: tracking de métricas e hiperparámetros
Tracking de experimentos con MLflow: reporte de clasificación
Entrenamiento de modelos baseline y análisis en UI de MLflow
MLflow Model Registry: registro y uso de modelos
Registro de modelos con mlflow.client
Testing de modelo desde MLflow con datos de prueba
¿Para qué sirve el tracking de modelos en MLOps?
Orquestación de pipelines de machine learning
Tasks con Prefect
Flows con Prefect
Flow de modelo de clasificación de tickets: procesamiento de datos y features
Flow de modelo de clasificación de tickets: integración de las tasks
Flow de modelo de clasificación de tickets: ejecución de tasks
¿Cómo se integra la orquestación en MLOps?
Despliegue de modelo de machine learning
Despligue con Docker y FastAPI: configuración y requerimientos
Despligue con Docker y FastAPI: definición de clases y entry point
Despligue con Docker y FastAPI: procesamiento de predicciones en main app
Despligue con Docker y FastAPI: configuración de la base de datos
Despliegue y pruebas de modelo de machine learning en localhost
Despliegue y pruebas de modelo de machine learning en la nube
¿Qué hacer con el modelo desplegado?
Monitoreo de modelo de machine learning en producción
¿Cómo monitorear modelos de machine learning en producción?
Entrenamiento de modelo baseline
Preparar datos para crear reporte con Evidently
Análisis de la calidad de los datos con Evidently
Creación de reportes con Grafana
¿Cómo mejorar tus procesos de MLOps?
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
El proceso de investigación y selección de modelos en Machine Learning es crucial para garantizar que se utilicen los algoritmos adecuados y los mejores hiperparámetros. Utilizar la técnica de búsqueda de grilla (Grid Search) es una de las formas más efectivas de lograrlo. Esta técnica permite definir un diccionario con varios hiperparámetros y, mediante una validación cruzada, se busca el conjunto óptimo de estos.
Ejecutar este setup inicial es vital antes de sumergirse en entrenamientos más complejos. Además, los modelos baseline son una excelente manera de evaluar el punto de partida y decidir si las estrategias más complejas son necesarias.
Durante el proceso de entrenamiento, es común encontrarse con errores en el código, por ejemplo, al intentar llamar métodos inexistentes. En tales casos, es esencial revisar el código, identificar la fuente del error y corregirla antes de continuar.
# Previamente teníamos el siguiente error:
# model.predict()
# donde debería ser algo como:
model.predict(x_test)
Corrigiendo este tipo de errores básicos, se asegura un entrenamiento fluido y sin interrupciones innecesarias.
La matriz de confusión es una herramienta poderosa que se utiliza para evaluar el rendimiento de un modelo. Esta matriz muestra claramente verdaderos positivos, falsos positivos, verdaderos negativos y falsos negativos de las predicciones:
Este desbalance puede llevar a un overfitting, donde el modelo se ajusta demasiado a los datos de entrenamiento y no se adapta bien a nuevas entradas.
MLflow ofrece una interfaz intuitiva para observar y comparar nuestros modelos de Machine Learning. Esto ayuda a identificar métricas críticas y determinar si hay un sobreajuste:
La comparación efectiva y la organización de métricas importantes permiten optimizar y validar el modelo antes de su despliegue.
Guardar modelos como artefactos, en Scikit-Learn o cualquier otra biblioteca, permite reutilizar instancias entrenadas sin necesidad de repetir entrenamientos costosos en el futuro. Esto es crucial para:
Al integrar estos procedimientos, los profesionales pueden optimizar no solo el desarrollo de modelos, sino también su implementación y mantenimiento a largo plazo.
Aportes 3
Preguntas 0
Es posible que al abrir mlflow ui no puedan visualizar los experimentos, esto se debe a que el .db está quedando dentro de la carpeta tracking. deben ejecutar
mlflow ui --backend-store-uri sqlite:///tracking/mlflow.db
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?