Fundamentos de MLOps y tracking de modelos
Implementaci贸n de MLOps para Modelos de Machine Learning
Tracking de Modelos de Machine Learning con MLflow Local
Seguimiento local de experimentos con MLflow usando folder personalizado
Principios y Etapas del MLOps en Machine Learning
Componentes de Infraestructura en MLOps: Control, Integraci贸n y Monitorizaci贸n
Tracking de Experimentos con MLflow y Bucket en SQLite
Tracking de Experimentos de Machine Learning con AWS y MLflow
Tracking del ciclo de vida de modelos de machine learning
Clasificaci贸n de Tickets con Procesamiento de Lenguaje Natural
Tracking de Datos y Modelado con MNLflow y Scikit-learn
Tracking de M茅tricas e Hiperpar谩metros con Validaci贸n Cruzada
Tracking de Modelos y M茅tricas con MLflow y CycleLearn
Optimizaci贸n de Hiperpar谩metros en Modelos de Machine Learning
Creaci贸n y gesti贸n de experimentos con MLflow y Scikit-Learn
Promoci贸n y Gesti贸n de Modelos en Azure con MLflow
Validaci贸n de Modelos de Machine Learning con MLflow y SciPy
Tracking y Trazabilidad en MLOps con MLflow
Orquestaci贸n de pipelines de machine learning
Creaci贸n de tareas en Prefect para flujos de Machine Learning
Creaci贸n de Flujos de Trabajo con Prefect para Machine Learning
Pipeline de Machine Learning para Clasificaci贸n de Tickets
Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
Ejecuci贸n de Flujos de Trabajo con Prefect: Conceptos y Pr谩cticas
Orquestaci贸n de Flujos Flexibles con Prefect y Python
Despliegue de modelo de machine learning
Despliegue de Aplicaciones con Docker y FAS API en AWS
Creaci贸n de Aplicaci贸n con PaaS API, Docker y Grafana
Preprocesamiento y Predicci贸n de Texto en Modelos de Machine Learning
Configuraci贸n de Base de Datos en SQLModel y Docker Compose
Despliegue Local y en AWS de Aplicaciones con Docker y Postman
Implementaci贸n de Modelos en Entornos Productivos con AWS y Docker
Autoescalado y Entrega Continua de Modelos en Producci贸n
Monitoreo de modelo de machine learning en producci贸n
Monitoreo de Modelos en Producci贸n: Estrategias y M茅tricas Clave
Monitoreo de Modelos en Producci贸n: Calidad de Datos y Data Drift
Modelo de Clasificaci贸n con Support Vector Classifier
An谩lisis de Drift y Valores Faltantes con Evidently
Creaci贸n de Dashboards y Visualizaciones en Grafana para Machine Learning
Mejora de Procesos MLOps e Infraestructura Escalable
No tienes acceso a esta clase
隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera
Cuando trabajas con aplicaciones complejas, es fundamental mantener una estructura de repositorio clara y bien organizada. Esto es especialmente importante si est谩s utilizando herramientas como Docker para el despliegue. En nuestro caso, todas las configuraciones e implementaciones deben manejarse en una rama espec铆fica de deploy para evitar confusiones. Aqu铆 te mostramos c贸mo estructurar tu aplicaci贸n:
Directorio app
: Debes mantener los archivos esenciales dentro del directorio app
:
__init__.py
: Vac铆o, para designar el paquete.
config
: Configuraciones clave de la aplicaci贸n.
convectorizer.pickle
: Artefacto vital para transformar datos a representaci贸n matricial para el modelo.
db.py
: Configuraciones de la base de datos, incluyendo campos y tipos de datos.
main.py
: Encapsula toda la l贸gica de la aplicaci贸n.
prestart.sh
: Inicializa la base de datos, indicando el puerto 5432.
Archivos externos a app
:
Dockerfile
y docker-compose.yml
: Para la estructura de Docker.
Model
: Usado para leer al generar predicciones en batch.
requerimientos
: Todas las dependencias necesarias.
Archivo para instancias en AWS: Configura la instancia, actualiza, y gestiona conexiones.
Desplegar una aplicaci贸n localmente antes del servidor final es un buen ejercicio para asegurar que todo funciona como se espera. A continuaci贸n, te guiamos en el proceso:
Corre el siguiente comando:
docker compose build
Este comando descarga requisitos y copia archivos de la aplicaci贸n.
docker compose up
para ejecutar.db.py
l铆nea 29, corr铆gelo. Requiere ajustar docstrings o llaves mal puestas.predict
.client name
y text
.Una vez la aplicaci贸n est谩 funcionando localmente, ser谩 momento de probar las predicciones con Postman. Estos son los pasos que debes seguir:
Enviar solicitudes:
Usa el m茅todo POST a la API con el cuerpo de prueba.
Comprueba la estructura del entry point
y aseg煤rate de que los datos est谩n correctamente formateados.
Verifica las respuestas:
Tras enviar la solicitud, deber铆as recibir un diccionario con el valor de prediction
.
Si el status code
es 200, indica que la aplicaci贸n funcion贸 correctamente.
Para garantizar que tus predicciones se almacenan adecuadamente en la base de datos, sigue estos pasos:
Usa tu gestor favorito de base de datos:
En este caso, puedes usar Visual Studio Code con la extensi贸n de conexiones.
Configura tu conexi贸n con localhost
, puerto 5433 y credenciales definidas en el Dockerfile.
Verifica los datos:
Examina los registros almacenados, como ID
, client name
, prediction
.
Confirma que las predicciones han sido decodificadas correctamente usando label mapping
.
Esta estructura y proceso ayudan a garantizar que el despliegue se realiza sin problemas, asegurando una transici贸n fluida de local a producci贸n. 隆No dudes en seguir experimentando y afinando estos pasos para perfeccionar tus despliegues!
Aportes 2
Preguntas 4
驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?