- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Modelo de Clasificación con Support Vector Classifier
Clase 32 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo mejorar un modelo de clasificación con Support Vector Classifier?
El desarrollo y la mejora de modelos de clasificación son esenciales en el campo del aprendizaje automático. En este contexto, se ha propuesto un segundo enfoque utilizando Support Vector Classifier (SVC) para mejorar la simplicidad del modelo base inicial. La importancia de este enfoque radica en su capacidad para manejar la clasificación multiclase y mejorar la precisión del modelo.
¿Cuáles son los pasos clave en la creación del modelo?
Para implementar un modelo eficiente de SVC, se llevaron a cabo varios pasos cuidadosamente estructurados:
-
Transformación de datos: Se utilizaron técnicas de transformación de datos como la frecuencia inversa para preparar los datos para el modelo.
-
División de datos: Los datos se separaron en conjuntos de entrenamiento y prueba para asegurar que el modelo pueda generalizar a nuevos datos.
-
Definición del modelo: Se configuró un Support Vector Machine Classifier especificando atributos como el kernel y el class weight, además de fijar una semilla para garantizar la reproducibilidad del modelo.
-
Ajuste del modelo: El modelo se entrenó con los datos transformados de entrenamiento y se evaluó usando un conjunto de datos de pruebas, examinando además las predicciones para realizar ajustes necesarios.
-
Evaluación del modelo: Se generó un informe con los datos de pruebas para evaluar el desempeño del modelo en las clases previstas.
¿Cómo se procesan las matrices dispersas?
Trabajar con matrices dispersas es común al utilizar técnicas como la inversa de frecuencia, y puede implicar complejidades adicionales. En este modelo:
- Las filas de la matriz representaban registros individuales, mientras que las columnas correspondían a palabras únicas.
- Para simplificar el análisis y evitar el aumento de dimensiones que estas matrices dispersas pueden provocar, se empleó una técnica alternativa que implicaba sumar componentes de manera ponderada.
- Esto se hizo para condensar la información de la matriz en un único valor escalar, mejorando así el manejo y análisis de los datos.
¿Cómo se almacenan y utilizan las predicciones y referencias?
Es crucial tener en cuenta cómo se gestionan las predicciones y los datos de referencia al construir un modelo eficaz:
- Predicciones: Las predicciones se almacenaron y se añadieron al conjunto de entrenamiento, permitiendo comparaciones con las etiquetas reales y ajustes al modelo.
- Referencias de datos: Los datos de referencia, o benchmark data, se ligaron al conjunto de pruebas para su utilización en estudios de calidad de datos y análisis de desviación de datos.
¿Por qué es importante la preparación de datos para Evidently?
El uso de herramientas como Evidently para la calidad de datos requiere un formato específico para asegurar un análisis adecuado:
- Transformaciones previas: Los valores de las etiquetas y las predicciones se transformaron a tipos de datos apropiados, como enteros.
- Datasets simplificados: Se seleccionaron únicamente las columnas necesarias en un formato adecuado para Evidently, evitando estructuras de datos complejas.
¿Qué sigue después de la transformación de datos?
Con los datos ahora transformados, se está listo para llevar a cabo un análisis de calidad de datos, verificando las predicciones del modelo con un conjunto de datos de referencia y datos reales. Este paso no solo evalúa la efectividad del modelo, sino que también ayuda a asegurar su robustez en el tiempo.
Continúa explorando las capacidades de SVC y experimenta creando tu propio modelo base. No olvides compartir tus resultados y aprender de las experiencias de otros estudiantes. ¡Adelante con entusiasmo hacia la próxima lección!