Fundamentos de MLOps y tracking de modelos
Implementación de MLOps para Modelos de Machine Learning
Tracking de Modelos de Machine Learning con MLflow Local
Seguimiento local de experimentos con MLflow usando folder personalizado
Principios y Etapas del MLOps en Machine Learning
Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
Tracking de Experimentos con MLflow y Bucket en SQLite
Tracking de Experimentos de Machine Learning con AWS y MLflow
Tracking del ciclo de vida de modelos de machine learning
Clasificación de Tickets con Procesamiento de Lenguaje Natural
Tracking de Datos y Modelado con MNLflow y Scikit-learn
Tracking de Métricas e Hiperparámetros con Validación Cruzada
Tracking de Modelos y Métricas con MLflow y CycleLearn
Optimización de Hiperparámetros en Modelos de Machine Learning
Creación y gestión de experimentos con MLflow y Scikit-Learn
Promoción y Gestión de Modelos en Azure con MLflow
Validación de Modelos de Machine Learning con MLflow y SciPy
Tracking y Trazabilidad en MLOps con MLflow
Orquestación de pipelines de machine learning
Creación de tareas en Prefect para flujos de Machine Learning
Creación de Flujos de Trabajo con Prefect para Machine Learning
Pipeline de Machine Learning para Clasificación de Tickets
Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
Orquestación de Flujos Flexibles con Prefect y Python
Despliegue de modelo de machine learning
Despliegue de Aplicaciones con Docker y FAS API en AWS
Creación de Aplicación con PaaS API, Docker y Grafana
Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
Configuración de Base de Datos en SQLModel y Docker Compose
Despliegue Local y en AWS de Aplicaciones con Docker y Postman
Implementación de Modelos en Entornos Productivos con AWS y Docker
Autoescalado y Entrega Continua de Modelos en Producción
Monitoreo de modelo de machine learning en producción
Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
Modelo de Clasificación con Support Vector Classifier
Análisis de Drift y Valores Faltantes con Evidently
Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
Mejora de Procesos MLOps e Infraestructura Escalable
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Iniciar el camino hacia el uso eficiente de servicios en la nube es esencial en el mundo del Machine Learning. En esta guÃa, exploraremos cómo hacer tracking utilizando los servicios de Amazon Web Services (AWS), lo que permite compartir los resultados de tus experimentos de manera efectiva con tu equipo de trabajo. Al integrar MLflow con AWS, puedes gestionar y almacenar experimentos, bases de datos y resultados en un entorno accesible y colaborativo. ¡Vamos a comenzar!
Antes de aprovechar al máximo los servicios de AWS, es vital seguir una serie de pasos de configuración. Aquà te dejo un resumen de los aspectos clave:
Ahora que hemos configurado nuestra infraestructura, el siguiente paso es habilitar MLflow para realizar el tracking. Sigamos este esquema de configuración:
# Configuración para server de MLflow
port: 5000
backend_store_uri: "postgres://<usuario>:<contraseña>@<endpoint>:5432/nombre_DB"
default_artifact_root: "s3://nombre-tu-bucket/mlflow"
Conectar a la instancia S2: Utiliza las llaves generadas para acceder al servidor. Asegúrate de estar en la posición correcta al hacer la conexión.
Actualizar y configurar dependencias: Ejecuta los comandos para descargar e instalar las dependencias necesarias para que MLflow opere correctamente.
Importar y configurar variables ambientales: Crea un módulo de Python para gestionar de manera segura tus claves de acceso (secret key
y access key
).
Una vez configurado el servidor y MLflow, estás listo para ejecutar tus experimentos de Machine Learning y realizar el tracking de resultados. Aquà te muestro un ejemplo simple:
import mlflow
import mlflow.sklearn
# Configurar dirección del servidor
mlflow.set_tracking_uri('http://<tu-dirección-ip>:5000')
# Configura tu experimento
mlflow.set_experiment('Logistic Regression')
with mlflow.start_run():
mlflow.log_param('param_name', param_value)
mlflow.log_metric('metric_name', metric_value)
mlflow.sklearn.log_model(model, 'model')
Definir el tracking server: Usa la dirección pública de tu instancia S2 y el puerto 5000.
Realizar el tracking de los experimentos: Ejecuta tu código de experimentación, registrando parámetros, métricas y tu modelo en MLflow.
Visualizar resultados en MLflow: Accede al servidor MLflow en tu navegador mediante http://<tu-dirección-ip>:5000
para explorar tus experimentos.
Ahora tienes la capacidad de compartir de forma segura y eficiente los resultados de tus experimentos de Machine Learning con tu equipo a través de AWS. No más transferencias manuales o riesgos de pérdida de información. Continúa explorando y optimizando tus procesos para aprovechar al máximo el potencial de la nube en tus proyectos de Machine Learning.
Aportes 12
Preguntas 1
ATENCIÓN: con la capa free tier de AWS, en el servicio de RDS sólo se permite crear 1 base de datos.
Si quieren crear una DB adicional, o borrar la antigua y crear una nueva, tendrán que pagar unos 15-17$ al mes (pago por uso, ya saben)
Por si las moscas el endpoint se encuentra en los detalles de la instancia del database:
Estuve profundizando en el servicio de RDS y aqui traje un corto resumen: AWS RDS (Relational Database Service) es un servicio que simplifica la configuracion, las operaciones y el escalamiento de bases de datos relacionales sobre AWS. Con este servicio te enforcas más en el desarrollo de tu aplicación que en otras tareas frecuentes como
Ventajas
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?