- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Despliegue Local y en AWS de Aplicaciones con Docker y Postman
Clase 27 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo estructurar tu repositorio para un despliegue exitoso?
Cuando trabajas con aplicaciones complejas, es fundamental mantener una estructura de repositorio clara y bien organizada. Esto es especialmente importante si estás utilizando herramientas como Docker para el despliegue. En nuestro caso, todas las configuraciones e implementaciones deben manejarse en una rama específica de deploy para evitar confusiones. Aquí te mostramos cómo estructurar tu aplicación:
-
Directorio
app: Debes mantener los archivos esenciales dentro del directorioapp: -
__init__.py: Vacío, para designar el paquete. -
config: Configuraciones clave de la aplicación. -
convectorizer.pickle: Artefacto vital para transformar datos a representación matricial para el modelo. -
db.py: Configuraciones de la base de datos, incluyendo campos y tipos de datos. -
main.py: Encapsula toda la lógica de la aplicación. -
prestart.sh: Inicializa la base de datos, indicando el puerto 5432. -
Archivos externos a
app: -
Dockerfileydocker-compose.yml: Para la estructura de Docker. -
Model: Usado para leer al generar predicciones en batch. -
requerimientos: Todas las dependencias necesarias. -
Archivo para instancias en AWS: Configura la instancia, actualiza, y gestiona conexiones.
¿Cómo proceder con el despliegue local?
Desplegar una aplicación localmente antes del servidor final es un buen ejercicio para asegurar que todo funciona como se espera. A continuación, te guiamos en el proceso:
- Preparar la terminal:
- Asegúrate de estar en la correcta rama de trabajo en tu repositorio.
- Construir la imagen Docker:
-
Corre el siguiente comando:
docker compose build -
Este comando descarga requisitos y copia archivos de la aplicación.
- Levantar la aplicación:
- Usa
docker compose uppara ejecutar.
- Corregir errores:
- Si encuentras un error, como el de indentación en
db.pylínea 29, corrígelo. Requiere ajustar docstrings o llaves mal puestas.
- Validación con Postman:
- Cambia el método a POST.
- Introduce el entry point: IP local, puerto 5004 y método
predict. - Define el cuerpo como lista de diccionarios con campos
client nameytext.
¿Cómo realizar pruebas de predicciones?
Una vez la aplicación está funcionando localmente, será momento de probar las predicciones con Postman. Estos son los pasos que debes seguir:
-
Enviar solicitudes:
-
Usa el método POST a la API con el cuerpo de prueba.
-
Comprueba la estructura del
entry pointy asegúrate de que los datos están correctamente formateados. -
Verifica las respuestas:
-
Tras enviar la solicitud, deberías recibir un diccionario con el valor de
prediction. -
Si el
status codees 200, indica que la aplicación funcionó correctamente.
¿Cómo conectarse a la base de datos y validar datos?
Para garantizar que tus predicciones se almacenan adecuadamente en la base de datos, sigue estos pasos:
-
Usa tu gestor favorito de base de datos:
-
En este caso, puedes usar Visual Studio Code con la extensión de conexiones.
-
Configura tu conexión con
localhost, puerto 5433 y credenciales definidas en el Dockerfile. -
Verifica los datos:
-
Examina los registros almacenados, como
ID,client name,prediction. -
Confirma que las predicciones han sido decodificadas correctamente usando
label mapping.
Esta estructura y proceso ayudan a garantizar que el despliegue se realiza sin problemas, asegurando una transición fluida de local a producción. ¡No dudes en seguir experimentando y afinando estos pasos para perfeccionar tus despliegues!