Si alguien llega y les envia un error con el load la solucion es actualizar joblib a su version mas reciente
Introducción
¿Qué es el despliegue de modelos y por qué es necesario?
Machine Learning Operations
Historia del MLOps y estado del arte
Flujo de vida de un modelo en producción
Requerimientos para poder hacer MLOps
Presentación del proyecto
Presentación y arquitectura del proyecto MLOps
Revisión de notebooks y modelado
Distribución archivos y contenido
Data Version Control
¿Qué es DVC y por que lo utilizaremos?
Comandos básicos para implementar DVC
Implementando DVC en nuestro proyecto
Desarrollo de pipeline de reentrenamiento: preparación de la data
Desarrollo de pipeline de reentrenamiento: script de entrenamiento
Desarrollo de pipeline de reentrenamiento: validación del modelo
Desarrollo de API con FastAPI
Desarrollo de API con FastAPI
Desarrollo de API con FastAPI: creación de utilidades
Desarrollo de testeo de API
Empaquetando API con Docker
Continuous Integration/Deployment/Training
Presentacion de Github Actions y Continuous Machine Learning
Desarrollo de workflow para testing
Desarrollo de workflow para Continuous Training utilizando CML
Creacion de Servicio en la nube para el despliegue y desarrollo de workflow para CI/CD
Final del proyecto
Prueba tu endpoint
Sigue Aprendiendo
Otras maneras de hacer despliegues de modelos
Conclusiones y recomendaciones para seguir en el MLOps
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Aportes 4
Preguntas 3
Si alguien llega y les envia un error con el load la solucion es actualizar joblib a su version mas reciente
Tome 3 muestras aleatorias con la misma seed para hacer un test del modelo en FastAPI
# input dict:
{"352": {"opening_gross": 2074929.0, "screens": 77.0, "production_budget": 30000000, "title_year": 2002.0, "aspect_ratio": 1.85, "duration": 113.0, "cast_total_facebook_likes": 813, "budget": 45000000.0, "imdb_score": 7.2},
"1731": {"opening_gross": 17435092.0, "screens": 3008.0, "production_budget": 65000000, "title_year": 2012.0, "aspect_ratio": 2.35, "duration": 99.0, "cast_total_facebook_likes": 1375, "budget": 65000000.0, "imdb_score": 6.4},
"84": {"opening_gross": 27520040.0, "screens": 3401.0, "production_budget": 130000000, "title_year": 2013.0, "aspect_ratio": 2.35, "duration": 100.0, "cast_total_facebook_likes": 14168, "budget": 130000000.0, "imdb_score": 4.9}}
# output dict:
{"352": {"worldwide_gross": 306776732},
"1731": {"worldwide_gross": 180148897},
"84": {"worldwide_gross": 251499665}}
en mi caso al momento de correr la API en el servidor me daba error que me lleva a la funcion donde se carga el modelo, por tal razon decidi modificar la funcion de cargado de modelo y vaya que ahora es mas entendible y facil todo:
En una simple lina se resuelve todo
def get_model() -> Pipeline: # creamos una funcion sin parametros que retornara un objeto de tipo Pipeline
model = load("model/model.pkl")
return model
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?
o inicia sesión.