Fundamentos de MLOps y tracking de modelos
驴Qu茅 es MLOps y para qu茅 sirve?
Tracking de modelos en localhost con MLflow
Tracking de modelos en localhost: directorio personalizado
Etapas del ciclo de MLOps
Componentes de MLOps
Tracking de modelos con MLflow y SQLite
Tracking de modelos con MLflow en la nube
Tracking del ciclo de vida de modelos de machine learning
Tracking de experimentos con MLflow: preprocesamiento de datos
Tracking de experimentos con MLflow: definici贸n de funciones
Tracking de experimentos con MLflow: tracking de m茅tricas e hiperpar谩metros
Tracking de experimentos con MLflow: reporte de clasificaci贸n
Entrenamiento de modelos baseline y an谩lisis en UI de MLflow
MLflow Model Registry: registro y uso de modelos
Registro de modelos con mlflow.client
Testing de modelo desde MLflow con datos de prueba
驴Para qu茅 sirve el tracking de modelos en MLOps?
Orquestaci贸n de pipelines de machine learning
Tasks con Prefect
Flows con Prefect
Flow de modelo de clasificaci贸n de tickets: procesamiento de datos y features
Flow de modelo de clasificaci贸n de tickets: integraci贸n de las tasks
Flow de modelo de clasificaci贸n de tickets: ejecuci贸n de tasks
驴C贸mo se integra la orquestaci贸n en MLOps?
Despliegue de modelo de machine learning
Despligue con Docker y FastAPI: configuraci贸n y requerimientos
Despligue con Docker y FastAPI: definici贸n de clases y entry point
Despligue con Docker y FastAPI: procesamiento de predicciones en main app
Despligue con Docker y FastAPI: configuraci贸n de la base de datos
Despliegue y pruebas de modelo de machine learning en localhost
Despliegue y pruebas de modelo de machine learning en la nube
驴Qu茅 hacer con el modelo desplegado?
Monitoreo de modelo de machine learning en producci贸n
驴C贸mo monitorear modelos de machine learning en producci贸n?
Entrenamiento de modelo baseline
Preparar datos para crear reporte con Evidently
An谩lisis de la calidad de los datos con Evidently
Creaci贸n de reportes con Grafana
驴C贸mo mejorar tus procesos de MLOps?
No tienes acceso a esta clase
隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera
No se trata de lo que quieres comprar, sino de qui茅n quieres ser. Invierte en tu educaci贸n con el precio especial
Antes: $249
Paga en 4 cuotas sin intereses
Termina en:
Mar铆a Camila Durango
El mundo empresarial actual lidia constantemente con una inmensa cantidad de datos textuales, muchos de los cuales requieren una clasificaci贸n autom谩tica. Nos encontramos aqu铆 con un proyecto centrado precisamente en esto: el procesamiento del lenguaje natural para clasificar tickets de servicio al cliente. Estos tickets pueden girar en torno a problemas relacionados con bancos, hipotecas, pr茅stamos, entre otros. Veamos c贸mo este procedimiento se desglosa en varios m贸dulos y procesos claves.
TextProcessing es nuestro primer m贸dulo clave, una clase dedicada exclusivamente al procesamiento del texto. Este m贸dulo realiza varias tareas esenciales:
Adem谩s, este m贸dulo incluye m茅todos para transformar datos al eliminar columnas innecesarias, renombrar y realizar ciertas tareas de feature engineering, como la eliminaci贸n de datos faltantes.
class TextProcessing:
def __init__(self, language):
# C贸digo para la inicializaci贸n
def tokenize(self, text):
# C贸digo para tokenizar
# M谩s m茅todos de procesamiento de texto...
Feature Extraction se encarga de la representaci贸n vectorial del texto y reduce la complejidad de los datos. A trav茅s del TF-IDF vectorizer, convierte documentos en vectores num茅ricos. Este enfoque es crucial para manejar los numerosos temas (labels) que pueden tener v铆nculos entre s铆.
Este esfuerzo optimiza los datos al reducir t贸picos potencialmente redundantes, que se mapean de manera sencilla para reconocerlos al instante.
class FeatureExtraction:
def __init__(self):
# C贸digo para la inicializaci贸n
def fit_transform(self, corpus):
# C贸digo para vectorizaci贸n
# M茅todos adicionales para la extracci贸n de caracter铆sticas...
Una base s贸lida en proyecto de Machine Learning es el an谩lisis exploratorio de datos (EDA). Permite comprender el comportamiento y la estructura de los datos, clave para decidir c贸mo abordaremos el modelado posterior. Un notebook dedicado al EDA auxiliar谩 en:
Este an谩lisis inicial proporciona una visi贸n clara de las limitaciones y oportunidades presentes en los datos, siendo indispensable para una planificaci贸n eficiente del pipeline de datos.
El flujo se orquesta desde la terminal a trav茅s de Python. Los scripts automatizan el procesamiento, ejecutando secuencialmente los m贸dulos TextProcessing y FeatureExtraction para asegurar un flujo continuo y consistente.
# Ejecutar TextProcessing
python utils/TextProcessing.py
# Ejecutar Feature Extraction
python utils/FeatureExtraction.py
Al finalizar, los datos quedan exhaustivamente clasificados y listos para profundizar en modelos de datos avanzados, afianzando as铆 todo el sistema de clasificaci贸n autom谩tica en el contexto del procesamiento del lenguaje natural. Este flujo met贸dico crea un entorno robusto listo para modelados m谩s sofisticados.
Aportes 3
Preguntas 0
驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?