Realicé la prueba aumentando las épocas, y la mejor fue 300, de ahí en adelante no se vio mejoría en las predicciones
Fundamentos de PyTorch
Clasificación de Texto con PyTorch y TorchText en Google Colab
Introducción a PyTorch: Ventajas y Comparación con Otros Frameworks
Creación de Modelos de Texto con PyTorch: Clase TextClassifier
Creación y manipulación de tensores en PyTorch
Depuración y operación con tensores en PyTorch
Interacción entre Arrays de NumPy y Tensores de PyTorch
Quiz: Fundamentos de PyTorch
Estructura de modelo de deep learning en PyTorch
Regresión Lineal con PyTorch: Creación y Partición de Datos Artificiales
Modelo de Regresión Lineal en PyTorch: Creación y Predicción
Entrenamiento de Modelos de Regresión Lineal con PyTorch
Entrenamiento y Visualización de Modelos de Regresión Lineal en PyTorch
Inferencia de Modelos en CPU con PyTorch
Quiz: Estructura de modelo de deep learning en PyTorch
Redes neuronales con PyTorch
Clasificación de Texto con PyTorch y TorchText en Google Colab
Tokenización y Vocabulario en TorchText para DBpedia
Creación y uso de Data Loaders en PyTorch
Modelo de Clasificación de Texto con PyTorch
Entrenamiento de Modelos de Clasificación con DBpedia Dataset
Evaluación de Modelos de Aprendizaje Automático en PyTorch
Optimización y partición de datasets con PyTorch
Entrenamiento y Evaluación de Modelos en PyTorch
Inferencia con Modelos PyTorch y Torch Compile en Colab
Guardado y carga de modelos en PyTorch con checkpoints
Subida y descarga de modelos en JobinFace Hub
Cargar y Usar Checkpoints en PyTorch para Modelos de Clasificación de Texto
Quiz: Redes neuronales con PyTorch
Cierre del curso
Aplicación de PyTorch en Proyectos de IA
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Realizar inferencia es el proceso esencial para evaluar cómo nuestro modelo de machine learning, una vez entrenado, puede manejar datos no vistos o nuevos. En esta fase, aprovechamos el modelo para generar predicciones y compararlas con datos reales. Aprender a implementar este proceso garantiza que el modelo generalice correctamente fuera del conjunto de datos de entrenamiento.
Implementar un modelo entrenado para inferencia implica una serie de pasos que aseguran que las predicciones sean precisas y que el modelo esté adecuadamente preparado.
Activar el modo "EVAL": Antes de hacer predicciones, colocamos nuestro modelo en modo "EVAL" (evaluación). Esto es crucial ya que desactiva funciones como el dropout, que no son necesarias al evaluar el modelo, asegurando que las predicciones sean consistentes y realistas.
Configurar el administrador de contexto del modo "Inferencia": Si ya estás familiarizado con ambientes como PyTorch, sabrás que es esencial usar un administrador de contexto para asumir el modo sin gradientes, optimizando así el uso de memoria y acelerando las predicciones.
Asegurar consistencia en el dispositivo: Todo, desde el modelo hasta los datos de prueba, debe residir en el mismo dispositivo, ya sea CPU o GPU. Aunque en este ejemplo operamos con CPU, es bueno utilizar funciones como to(device)
, especialmente si trabajamos en entornos con GPU, para maximizar el rendimiento.
# Mover el modelo y el tensor de prueba al dispositivo
# modelo.to(device)
# x_prop.to(device)
Una vez que el modelo está en modo evaluación y todos los elementos están en el dispositivo correcto, podemos proceder a obtener las predicciones.
PlotPredictions
, para observar visualmente cómo las predicciones se comparan contra los valores reales.# Obtener predicciones
y_preds = modelo(x_prop)
# Graficar predicciones
PlotPredictions(predictions=y_preds)
Al visualizarlo gráficamente, podemos identificar mejoras en la cercanía de las predicciones a los datos objetivos.
Después de observar las predicciones, aún es posible mejorar el rendimiento del modelo. Aquí algunas recomendaciones para optimización efectiva:
Estas acciones ayudarán a refinar el modelo y verán cómo los resultados se acercan más a los valores reales, diferenciándose cada vez menos.
¡Enhorabuena! Llegaste al final de este módulo, en el que no solo aprendiste cómo inicializar, entrenar y evaluar un modelo, sino también a reflejar el progreso visualmente. Te animamos a reflexionar sobre cómo estas técnicas profundizaron tus conocimientos en Deep Learning comparados con tecnologías previas que manejabas, como Keras. ¡Esperamos tus comentarios!
En el próximo módulo, decidiremos entrenar una red neuronal con PyTorch. Te invitamos a seguir explorando y profundizando en el conocimiento sobre estas fascinantes técnicas.
Aportes 6
Preguntas 0
Realicé la prueba aumentando las épocas, y la mejor fue 300, de ahí en adelante no se vio mejoría en las predicciones
como el reto suponía ajustar el modelo, lo que hice fue agrandar los steps y he aquí mi resultado:
Si reducimos el lr a 0.002, y aumentamos las épocas a 1330, se aprecia una mejora razonable del aprendizaje, pero también cómo es necesario aumentar las épocas al reducir el lr en este ejemplo sencillo.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?