- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Pipeline de Machine Learning para Clasificación de Tickets
Clase 19 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo implementar un pipeline para la clasificación de tickets?
Desarrollar un pipeline de machine learning robusto es esencial para manejar procesos automatizados de análisis de datos. En este contexto, vamos a implementar un pipeline enfocado en la clasificación de tickets, integrando procesos de procesamiento de datos y entrenamiento del modelo en un flujo eficaz utilizando herramientas como Visual Studio Code y bibliotecas relevantes.
¿Cómo configurar el entorno de trabajo?
Antes de comenzar a desarrollar nuestro pipeline, es fundamental preparar el entorno de trabajo. Se proporcionan dos archivos importantes:
- config.py:
-
Aloja variables cruciales para el flujo de trabajo, incluyendo rutas de almacenamiento de datos y configuraciones de parámetros del modelo.
-
Permite versatilidad al incluir una versión configurable, ayudando a identificar ejecuciones específicas del pipeline.
# Ejemplo básico de estructura config = { "data_path": "ruta_datos_procesados", "version": 2, "language": "inglés", "filename_input": "nombre_entrada", "model_params": {"param1": "value1", "param2": "value2"}, }
- utils.py:
- Incluye funciones auxiliares no definidas como tareas, pero útiles para el flujo de trabajo general, como la decodificación de etiquetas o el almacenamiento y carga de objetos con
picle.
¿Cómo integrar las tareas en el flow?
Iniciando con el desarrollo del flow, se importa una serie de librerías:
Scikit-learnpara entrenamiento y métricas de modelo.Prefectpara orquestar el pipeline.- Módulos personalizados para procesamiento de texto y extracción de características.
¿Cómo se define una tarea de procesamiento de texto?
Crear una tarea que gestione el procesamiento de texto es esencial para preparar datos para el modelo.
from prefect import task
@task(retries=3, retry_delay_seconds=60, name="textProcessingTask", tags=["data_processing"])
def text_processing(language: str, filename: str, version: int):
processor = TextProcessingProcessor(language)
processed_data = processor.run(filename, version)
return processed_data
¿Cómo se ejecuta la extracción de características?
La extracción de características permite estructurar los datos de manera más efectiva para el modelo.
@task(retries=3, retry_delay_seconds=60, name="featureExtractionTask", tags=["feature_engineering"])
def feature_extraction(data_path: str, version: int):
feature_processor = FeatureExtractionProcessor()
features = feature_processor.run(data_path, version)
return features
¿Cómo se ejecuta todo el pipeline?
Una vez definidas las tareas, se integran dentro de un flow:
from prefect import Flow
# Definición del flow
with Flow("Ticket Classification Pipeline") as flow:
processed_data = text_processing(config['language'], config['filename_input'], config['version'])
features = feature_extraction(config['data_path'], config['version'])
flow.run()
Este flujo ejecuta primero el procesamiento de texto y luego la extracción de características, asegurando que los datos estén adecuadamente preparados para el modelo.
¿Cuáles son los siguientes pasos?
Con el pipeline en marcha, el siguiente paso será integrar nuevas tareas para completar la ejecución de los procesos necesarios para el entrenamiento y evaluación del modelo. Esto incluye tareas para aplicar transformaciones a los datos, manejar hiperparámetros y evaluar la precisión del modelo. Continuar explorando y mejorando la robustez de tu pipeline asegurará no solo resultados precisos, sino también eficientes, lo cual es fundamental para cualquier proyecto de machine learning.