Fundamentos de MLOps y tracking de modelos
Implementación de MLOps para Modelos de Machine Learning
Tracking de Modelos de Machine Learning con MLflow Local
Seguimiento local de experimentos con MLflow usando folder personalizado
Principios y Etapas del MLOps en Machine Learning
Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
Tracking de Experimentos con MLflow y Bucket en SQLite
Tracking de Experimentos de Machine Learning con AWS y MLflow
Tracking del ciclo de vida de modelos de machine learning
Clasificación de Tickets con Procesamiento de Lenguaje Natural
Tracking de Datos y Modelado con MNLflow y Scikit-learn
Tracking de Métricas e Hiperparámetros con Validación Cruzada
Tracking de Modelos y Métricas con MLflow y CycleLearn
Optimización de Hiperparámetros en Modelos de Machine Learning
Creación y gestión de experimentos con MLflow y Scikit-Learn
Promoción y Gestión de Modelos en Azure con MLflow
Validación de Modelos de Machine Learning con MLflow y SciPy
Tracking y Trazabilidad en MLOps con MLflow
Orquestación de pipelines de machine learning
Creación de tareas en Prefect para flujos de Machine Learning
Creación de Flujos de Trabajo con Prefect para Machine Learning
Pipeline de Machine Learning para Clasificación de Tickets
Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
Orquestación de Flujos Flexibles con Prefect y Python
Despliegue de modelo de machine learning
Despliegue de Aplicaciones con Docker y FAS API en AWS
Creación de Aplicación con PaaS API, Docker y Grafana
Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
Configuración de Base de Datos en SQLModel y Docker Compose
Despliegue Local y en AWS de Aplicaciones con Docker y Postman
Implementación de Modelos en Entornos Productivos con AWS y Docker
Autoescalado y Entrega Continua de Modelos en Producción
Monitoreo de modelo de machine learning en producción
Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
Modelo de Clasificación con Support Vector Classifier
Análisis de Drift y Valores Faltantes con Evidently
Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
Mejora de Procesos MLOps e Infraestructura Escalable
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Monitorear un modelo en producción es una tarea crucial que garantiza su funcionalidad y precisión a lo largo del tiempo. Después de colocar tu modelo en producción, no puedes simplemente olvidarte de él. Los datos cambian, las tendencias evolucionan, y tu modelo puede perder efectividad. Para asegurarte de que siga siendo relevante y preciso, es esencial hacer un seguimiento constante del rendimiento y la calidad de los datos. Aquí te mostraré cómo utilizar algunas librerías comunes en el campo de MLOps para asegurar la estabilidad y efectividad de tu modelo.
Para monitorear el comportamiento de los datos, primero necesitas establecer una línea base o modelo Baseline. Esto implica trabajar con librerías como Scikit-Learn y Pandas para procesar y transformar tus datos.
describe()
de tus datos para entender:Total de registros.
Cantidad de etiquetas.
Valores únicos y la moda.
import pandas as pd
data = pd.read_csv('Data/tu_archivo.csv') print(data.describe())
Verificar el balance de etiquetas: Usar value_counts()
para identificar desbalances en las etiquetas, lo que puede indicar complejidades en el modelo.
counts = data['relevant_topic'].value_counts() print(counts)
Convertir datos de texto a numéricos: Es fundamental cuando trabajamos con modelos de aprendizaje automático, asegurando la representación adecuada de los datos para su análisis.
Un modelo DUMY o Baseline ayuda a determinar la estabilidad del sistema, considerando que el modelo en producción no siempre debe ser el más complejo. Este modelo simple evalúa si el modelo actual aún es suficiente dado el cambio constante en los datos.
Dividir los datos: Los datos se dividen en conjuntos de entrenamiento y prueba. Esto ayuda a ver cómo el modelo Baseline se comporta con nuevos datos.
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=42)
Creación del modelo DUMY: Se genera utilizando la clase mayoritaria de los datos de entrenamiento para establecer una referencia simple.
from sklearn.dummy import DummyClassifier
dummy_classifier = DummyClassifier(strategy="constant", constant=majority_class) dummy_classifier.fit(x_train, y_train)
Evaluación del modelo: Compara sus predicciones con las reales para evaluar las métricas de rendimiento y determinar qué tan efectivo es.
from sklearn.metrics import classification_report
predictions = dummy_classifier.predict(x_test) print(classification_report(y_test, predictions))
Si el modelo DUMY muestra que no es capaz de reconocer las clases de manera precisa, es un indicativo de que el modelo en producción podría no estar capturando efectivamente los patrones actuales de los datos.
Ante el fenómeno de Data Drift, donde los datos de entrada cambian con respecto a los datos originales, es esencial desarrollar un sistema de detección que pueda ejecutar acciones correctivas apropiadas.
Adoptando estas estrategias no solo asegurarás que tu modelo siga siendo relevante, sino que también garantizarás que se mantenga a la vanguardia de las necesidades del negocio, resistiendo al ineluctable cambio en los datos. Siempre recuerda, el monitoreo es una inversión en la longevidad y efectividad de tu modelo. ¡Sigue aprendiendo y mejorando tus habilidades en MLOps!
Aportes 1
Preguntas 0
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?