Fine Tuning de Modelos NLP con Huggin Face y Google Colab

Clase 16 de 19Curso de Transfer Learning con Pytorch y OpenAI

Resumen

¿Cómo se realiza el proceso de fine tuning en modelos?

El proceso de fine tuning es fundamental para ajustar modelos preentrenados a nuestras necesidades específicas. En la cuarta sección del fine tuning, definimos la cantidad de etiquetas, similar a lo que hacemos en Computer Vision. Por ejemplo, cuando se clasifica si un review es positivo o negativo, las etiquetas se reducen a dos: cero o uno.

Para la implementación, los pasos incluyen:

  • Definir la estructura del modelo, pasando por diversas etapas como los input ID, hidden state, y los outputs.
  • Evaluar la precisión con métricas adecuadas, usando herramientas como evaluate.
  • Calcular las predicciones y sus probabilidades.

¿Qué es el Hugging Face Hub y cómo lo integramos?

El Hugging Face Hub es una plataforma que permite cargar modelos y conjuntos de datos de forma gratuita. Para comenzar a usarlo, es necesario definir credenciales con permisos de escritura, asegurando que el token creado tenga las configuraciones adecuadas.

Pasos para integrar Hugging Face Hub:

  1. Crear un token de escritura.
  2. Definir el nombre del modelo, por ejemplo, usando el modelo Roberta.
  3. Configurar parámetros de entrenamiento según las necesidades del hardware disponible, como batch size y número de epochs.
  4. Finalmente, cargar y guardar el modelo entrenado para posteriormente subirlo al Hugging Face Hub.

¿Cómo se utiliza Wait and Biases para el monitoreo?

Wait and Biases es una herramienta esencial para monitorear el entrenamiento de modelos. Aunque se utilice una GPU en Google Colab, esta se requiere principalmente para procesar los datos. Wait and Biases ofrece un monitoreo eficiente durante el entrenamiento.

  • Creación de una cuenta gratuita en Wait and Biases.
  • Autorización con la API Key proporcionada por la plataforma.
  • Monitoreo de métricas en tiempo real y resultados visibles incluso en el notebook.

¿Cómo probamos y validamos nuestros modelos entrenados?

Una vez entrenado y subido el modelo a Hugging Face, se puede utilizar para realizar inferencias y predicciones. Para el análisis de sentimientos, usamos la herramienta Pipeline de Transformers.

Proceso de validación:

  1. Importar Pipeline e integrar el modelo con el usuario y el proyecto.
  2. Probar con ejemplos de reviews, como:
    • "Me encantó el pantalón": asociado a una valoración positiva con un 99% de certeza.
    • "Te obligan a comprar dos unidades": se clasifica con una valoración negativa con un 94% de certeza.
  3. Los resultados proporcionan certeza clara sobre la evaluación del sentimiento de cada review.

Los desafíos de probar multitud de ejemplos reales con este modelo brindan una excelente oportunidad de aprendizaje. La accesibilidad del notebook desde la sección de recursos permite explorar a fondo todas estas posibilidades.

Transformers se destaca como una de las librerías más utilizadas en el mundo de NLP, y su capacidad para el fine tuning a través de plataformas como Hugging Face o incluso APIs avanzadas como OpenAI presentan funcionalidades prometedoras en este ámbito.