- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Tracking de Experimentos de Machine Learning con AWS y MLflow
Clase 7 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo realizar tracking en la nube con AWS para Machine Learning?
Iniciar el camino hacia el uso eficiente de servicios en la nube es esencial en el mundo del Machine Learning. En esta guía, exploraremos cómo hacer tracking utilizando los servicios de Amazon Web Services (AWS), lo que permite compartir los resultados de tus experimentos de manera efectiva con tu equipo de trabajo. Al integrar MLflow con AWS, puedes gestionar y almacenar experimentos, bases de datos y resultados en un entorno accesible y colaborativo. ¡Vamos a comenzar!
¿Qué debes configurar en AWS?
Antes de aprovechar al máximo los servicios de AWS, es vital seguir una serie de pasos de configuración. Aquí te dejo un resumen de los aspectos clave:
- Crear una instancia S2 en AWS: Aquí es donde se ejecutará nuestro servidor. Esta instancia servirá como la base para realizar el tracking.
- Configurar un bucket en S3: Este bucket almacenará los resultados de los experimentos, lo que facilitará su gestión y acceso al equipo.
- Establecer una base de datos Postgres: Actuará como Backend Store para MLflow. No olvides anotar información crucial, como el nombre de usuario, contraseña y endpoint de la base de datos.
¿Cómo activar MLflow con un servidor AWS?
Ahora que hemos configurado nuestra infraestructura, el siguiente paso es habilitar MLflow para realizar el tracking. Sigamos este esquema de configuración:
# Configuración para server de MLflow
port: 5000
backend_store_uri: "postgres://<usuario>:<contraseña>@<endpoint>:5432/nombre_DB"
default_artifact_root: "s3://nombre-tu-bucket/mlflow"
Pasos:
-
Conectar a la instancia S2: Utiliza las llaves generadas para acceder al servidor. Asegúrate de estar en la posición correcta al hacer la conexión.
-
Actualizar y configurar dependencias: Ejecuta los comandos para descargar e instalar las dependencias necesarias para que MLflow opere correctamente.
-
Importar y configurar variables ambientales: Crea un módulo de Python para gestionar de manera segura tus claves de acceso (
secret keyyaccess key).
¿Cómo correr experimentos de ML con tracking en AWS?
Una vez configurado el servidor y MLflow, estás listo para ejecutar tus experimentos de Machine Learning y realizar el tracking de resultados. Aquí te muestro un ejemplo simple:
import mlflow
import mlflow.sklearn
# Configurar dirección del servidor
mlflow.set_tracking_uri('http://<tu-dirección-ip>:5000')
# Configura tu experimento
mlflow.set_experiment('Logistic Regression')
with mlflow.start_run():
mlflow.log_param('param_name', param_value)
mlflow.log_metric('metric_name', metric_value)
mlflow.sklearn.log_model(model, 'model')
Pasos:
-
Definir el tracking server: Usa la dirección pública de tu instancia S2 y el puerto 5000.
-
Realizar el tracking de los experimentos: Ejecuta tu código de experimentación, registrando parámetros, métricas y tu modelo en MLflow.
-
Visualizar resultados en MLflow: Accede al servidor MLflow en tu navegador mediante
http://<tu-dirección-ip>:5000para explorar tus experimentos.
Ahora tienes la capacidad de compartir de forma segura y eficiente los resultados de tus experimentos de Machine Learning con tu equipo a través de AWS. No más transferencias manuales o riesgos de pérdida de información. Continúa explorando y optimizando tus procesos para aprovechar al máximo el potencial de la nube en tus proyectos de Machine Learning.