- 1

Implementación de MLOps para Modelos de Machine Learning
02:10 - 2

Principios y Etapas del MLOps en Machine Learning
09:21 - 3

Componentes de Infraestructura en MLOps: Control, Integración y Monitorización
08:23 - 4

Tracking de Modelos de Machine Learning con MLflow Local
12:48 - 5

Seguimiento local de experimentos con MLflow usando folder personalizado
04:53 - 6

Tracking de Experimentos con MLflow y Bucket en SQLite
04:04 - 7

Tracking de Experimentos de Machine Learning con AWS y MLflow
09:11
Despliegue de Aplicaciones con Docker y FAS API en AWS
Clase 23 de 35 • Curso de MLOPS: Despliegue de Modelos de Machine Learning
Contenido del curso
- 8

Clasificación de Tickets con Procesamiento de Lenguaje Natural
10:41 - 9

Tracking de Datos y Modelado con MNLflow y Scikit-learn
10:30 - 10

Tracking de Métricas e Hiperparámetros con Validación Cruzada
07:19 - 11

Tracking de Modelos y Métricas con MLflow y CycleLearn
08:53 - 12

Optimización de Hiperparámetros en Modelos de Machine Learning
12:17 - 13

Creación y gestión de experimentos con MLflow y Scikit-Learn
10:29 - 14

Promoción y Gestión de Modelos en Azure con MLflow
09:05 - 15

Validación de Modelos de Machine Learning con MLflow y SciPy
05:15 - 16

Tracking y Trazabilidad en MLOps con MLflow
07:41
- 17

Creación de tareas en Prefect para flujos de Machine Learning
08:49 - 18

Creación de Flujos de Trabajo con Prefect para Machine Learning
08:58 - 19

Pipeline de Machine Learning para Clasificación de Tickets
11:55 - 20

Pipeline de Procesamiento y Entrenamiento de Modelos de Datos
09:57 - 21

Ejecución de Flujos de Trabajo con Prefect: Conceptos y Prácticas
04:55 - 22

Orquestación de Flujos Flexibles con Prefect y Python
04:51
- 23

Despliegue de Aplicaciones con Docker y FAS API en AWS
08:01 - 24

Creación de Aplicación con PaaS API, Docker y Grafana
06:39 - 25

Preprocesamiento y Predicción de Texto en Modelos de Machine Learning
10:02 - 26

Configuración de Base de Datos en SQLModel y Docker Compose
05:28 - 27

Despliegue Local y en AWS de Aplicaciones con Docker y Postman
13:37 - 28

Implementación de Modelos en Entornos Productivos con AWS y Docker
12:53 - 29

Autoescalado y Entrega Continua de Modelos en Producción
02:31
- 30

Monitoreo de Modelos en Producción: Estrategias y Métricas Clave
11:48 - 31

Monitoreo de Modelos en Producción: Calidad de Datos y Data Drift
20:53 - 32

Modelo de Clasificación con Support Vector Classifier
13:23 - 33

Análisis de Drift y Valores Faltantes con Evidently
12:25 - 34

Creación de Dashboards y Visualizaciones en Grafana para Machine Learning
07:05 - 35

Mejora de Procesos MLOps e Infraestructura Escalable
02:48
¿Cómo poner en producción un modelo de procesamiento de lenguaje natural?
Es un momento emocionante: ¡tu modelo de procesamiento de lenguaje natural está listo para ver la luz! Implementar y desplegar aplicaciones de machine learning no solo requiere habilidades técnicas sino también una comprensión clara del entorno de producción. Aquí descubriremos cómo puedes lograr desplegar con éxito tu modelo de clasificación de tickets, asegurando que tu aplicación esté lista y funcionando eficazmente.
¿Cómo elegir el mejor modelo para producción?
Antes de cualquier implementación, asegúrate de seleccionar el modelo que haya demostrado el mejor rendimiento. Esto lo has aprendido al hacer el seguimiento de modelos con MLflow. Elegir el modelo correcto requiere evaluar cuidadosamente tanto su precisión como su robustez.
¿Cómo asegurarse de la consistencia en la transformación de datos?
La transformación de datos es fundamental para el despliegue. Asegúrate de que los datos utilizados para entrenar el modelo sufran el mismo procesamiento en producción. Esto incluye el uso de Convectorizer, que transforma datos de texto en formatos numéricos comprensibles por el modelo.
- Convectorizer: Importante para vectorizar datos de texto.
- Consistencia: Asegúrate de usar el mismo proceso de transformación en cada etapa.
¿Cómo construir la infraestructura de producción?
Para desplegar efectivamente tu aplicación, necesitarás construir una infraestructura robusta, lo cual implica varios pasos y herramientas claves, como Docker, Docker Compose, y FastAPI.
¿Cómo usar Docker para aplicaciones de machine learning?
Para comenzar tu viaje en producción, Docker es esencial. Aquí te mostramos cómo puedes definir tu entorno Docker:
# Dockerfile básico ejemplo:
FROM python:3.8-slim-buster
WORKDIR /app
COPY . /app
RUN pip install -r requirements.txt
Este archivo define el entorno necesario ejecutando Python y especificando todas las dependencias requeridas.
¿Cómo usar docker-compose.yaml para la gestión de servicios?
El archivo docker-compose.yaml te permite definir múltiples servicios y su configuración respectiva. Aquí se muestra un esquema básico:
version: '3.8'
services:
web:
build: .
ports:
- "5000:5000"
environment:
POSTGRES_USER: "user"
POSTGRES_PASSWORD: "password"
POSTGRES_DB: "db"
db:
image: postgres
ports:
- "5432:5432"
environment:
POSTGRES_USER: "user"
POSTGRES_PASSWORD: "password"
POSTGRES_DB: "db"
¿Cómo integrar FastAPI y base de datos en Docker?
Incorpora la API de FastAPI para manejar solicitudes y respuestas de cliente de manera eficiente. Además, utiliza Postgres para la gestión de la base de datos:
- FastAPI: Ideal para APIs rápidas en entornos HTTP/HTTPS.
- Postgres: Manejo avanzado de bases de datos relacionales.
¿Cómo asegurar el monitoreo y el rendimiento?
El monitoreo es un elemento crucial, añadiendo un volumen extra para Grafana te permite controlar el rendimiento y asegurar la estabilidad de tu aplicación.
¿Cómo garantizar la misma transformación de datos mediante utils.py?
Mantener la transformación de datos consistente es vital. Crea un módulo utils.py que contenga toda la lógica de procesamiento:
# utils.py ejemplo:
import nltk
from sklearn.feature_extraction.text import CountVectorizer
def transform_data(text):
nltk.download('stopwords')
# Transformación del texto
vectorizer = CountVectorizer()
return vectorizer.fit_transform([text])
Esto asegura que el procesamiento se mantenga constante en todas las implementaciones.
Imagina un despliegue exitoso que aproveche tanto tus habilidades técnicas como el entendimiento de la producción. Estos pasos no solo garantizan un modelo eficiente en la práctica, sino que también te brindan flexibilidad y control sobre tu aplicación de machine learning. ¡Sigue aprendiendo y aplicando tus conocimientos para alcanzar tus metas!