Herramientas para ML Data Versioning:
● Neptune
● Pachyderm
● Delta Lake
● Git LFS
● DoIt
● lakeFS
● DVC
● ML-Metadat
Introducción
¿Qué es el despliegue de modelos y por qué es necesario?
Machine Learning Operations
Historia del MLOps y estado del arte
Flujo de vida de un modelo en producción
Requerimientos para poder hacer MLOps
Presentación del proyecto
Presentación y arquitectura del proyecto MLOps
Revisión de notebooks y modelado
Distribución archivos y contenido
Data Version Control
¿Qué es DVC y por que lo utilizaremos?
Comandos básicos para implementar DVC
Implementando DVC en nuestro proyecto
Desarrollo de pipeline de reentrenamiento: preparación de la data
Desarrollo de pipeline de reentrenamiento: script de entrenamiento
Desarrollo de pipeline de reentrenamiento: validación del modelo
Desarrollo de API con FastAPI
Desarrollo de API con FastAPI
Desarrollo de API con FastAPI: creación de utilidades
Desarrollo de testeo de API
Empaquetando API con Docker
Continuous Integration/Deployment/Training
Presentacion de Github Actions y Continuous Machine Learning
Desarrollo de workflow para testing
Desarrollo de workflow para Continuous Training utilizando CML
Creacion de Servicio en la nube para el despliegue y desarrollo de workflow para CI/CD
Final del proyecto
Prueba tu endpoint
Sigue Aprendiendo
Otras maneras de hacer despliegues de modelos
Conclusiones y recomendaciones para seguir en el MLOps
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Aportes 5
Preguntas 0
Herramientas para ML Data Versioning:
● Neptune
● Pachyderm
● Delta Lake
● Git LFS
● DoIt
● lakeFS
● DVC
● ML-Metadat
En muchos proyectos tenemos un modelo.py (con el codigo python del modelo) y un archivo modelo.pkl con el modelo empaquetado. git queda tiene problemas al tratar con archivos pesados como el .pkl así que DVC simplemente crea un archivo que referencia al modelo (model.pkl.dvc), el cual no pesa prácticamente nada.
Entonces versionaremos este model.pkl.dvc y train.py en git, mientras dvc se encarga de versionar el model.pkl (que pesa 500mb!) guardándolo en un almacenamiento de la nube. Lo mismo podríamos hacer con datasets.
No es mucho, pero creo que esta clase debería estar antes que la anterior!
como trackeo mis modelos? como todo un payaso =D por eso estamos aqui aprobechando el platzi day!
He usado Git LFS, ya que una vez requeri subir unos .csv que pesaban casi 100MB
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?
o inicia sesión.