Fundamentos de MLOps y tracking de modelos
¿Qué es MLOps y para qué sirve?
Tracking de modelos en localhost con MLflow
Tracking de modelos en localhost: directorio personalizado
Etapas del ciclo de MLOps
Componentes de MLOps
Tracking de modelos con MLflow y SQLite
Tracking de modelos con MLflow en la nube
Tracking del ciclo de vida de modelos de machine learning
Tracking de experimentos con MLflow: preprocesamiento de datos
Tracking de experimentos con MLflow: definición de funciones
Tracking de experimentos con MLflow: tracking de métricas e hiperparámetros
Tracking de experimentos con MLflow: reporte de clasificación
Entrenamiento de modelos baseline y análisis en UI de MLflow
MLflow Model Registry: registro y uso de modelos
Registro de modelos con mlflow.client
Testing de modelo desde MLflow con datos de prueba
¿Para qué sirve el tracking de modelos en MLOps?
Orquestación de pipelines de machine learning
Tasks con Prefect
Flows con Prefect
Flow de modelo de clasificación de tickets: procesamiento de datos y features
Flow de modelo de clasificación de tickets: integración de las tasks
Flow de modelo de clasificación de tickets: ejecución de tasks
¿Cómo se integra la orquestación en MLOps?
Despliegue de modelo de machine learning
Despligue con Docker y FastAPI: configuración y requerimientos
Despligue con Docker y FastAPI: definición de clases y entry point
Despligue con Docker y FastAPI: procesamiento de predicciones en main app
Despligue con Docker y FastAPI: configuración de la base de datos
Despliegue y pruebas de modelo de machine learning en localhost
Despliegue y pruebas de modelo de machine learning en la nube
¿Qué hacer con el modelo desplegado?
Monitoreo de modelo de machine learning en producción
¿Cómo monitorear modelos de machine learning en producción?
Entrenamiento de modelo baseline
Preparar datos para crear reporte con Evidently
Análisis de la calidad de los datos con Evidently
Creación de reportes con Grafana
¿Cómo mejorar tus procesos de MLOps?
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Un flow es el orquestador de las tareas necesarias para resolver un problema de machine learning. Es crucial entender que un flow agrupa múltiples tareas, cada una con una función especÃfica. En el desarrollo de un proyecto de machine learning, el flow es una herramienta esencial que permite estructurar, automatizar y optimizar los procesos desde la obtención de datos hasta la implementación de un modelo.
Para definir un flow en Visual Studio Code, se requiere definir las tareas necesarias y luego integrarlas en un solo flujo. El ejemplo que abordamos utiliza un flow para la clasificación de iris. Este incluye tareas como la obtención de datos, la división en conjunto de entrenamiento y prueba, y el entrenamiento de un modelo usando un clasificador aleatorio (Random Forest Classifier).
# Ejemplo de código para dividir datos utilizando Scikit Learn
from sklearn.model_selection import train_test_split
def split_data(data):
X = data['data']
y = data['target']
return train_test_split(X, y, test_size=0.2, random_state=42)
Las tareas que usualmente añadimos a un flow están orientadas al flujo completo del proceso de machine learning. Las tareas más comunes son:
Obtención de datos: Extraemos los datos usando Scikit Learn.
División de datos (split data): Dividimos los datos en entrenamiento y prueba.
Entrenamiento del modelo (train model): Entrenamos un modelo para predecir o clasificar los datos.
from sklearn.ensemble import RandomForestClassifier
def train_model(X_train, y_train): model = RandomForestClassifier() model.fit(X_train, y_train) accuracy = model.score(X_train, y_train) print(f"Accuracy: {accuracy}") return model
Implementar flows presenta una serie de ventajas sustanciales. Entre ellas, permite automatizar los procesos repetitivos, minimizando errores humanos y aumentando la eficiencia del proyecto. Además, la visualización y seguimiento de cada tarea dentro de un flow es más sencilla, especialmente si utilizamos herramientas como Prefect para ejecutarlos.
Para ejecutar un flow en Prefect es necesario tener un servidor prefabricado y correr los scripts correspondientes:
# Ejecutando el servidor de Prefect
prefect server start
# Ejecutando el script con el flow
python my_flow_script.py
Al crear flujos de trabajo, es vital que consideremos los parámetros que cada flow puede recibir. Esto incluye los nombres, descripciones, etiquetas, entre otros. Además, la integración con programadores externos como Cron puede facilitar la ejecución periódica de estos flujos, lo cual es indispensable para tareas recurrentes como el reentrenamiento de modelos.
En un flow, una tarea puede generar artefactos como salidas. Por ejemplo, la división de datos puede producir archivos comprimidos para su uso futuro, minimizando el impacto en la memoria. Es recomendable familiarizarse con la creación y gestión de estos artefactos como parte integral de los procesos de machine learning.
En resumen, dominar los fundamentos y aplicaciones de los flows es esencial para cualquier profesional en el ámbito de machine learning, ya que permite llevar las tareas experimentales a entornos productivos de manera eficiente y eficaz.
Aportes 1
Preguntas 1
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?