Fine Tuning de Modelos NLP con Huggin Face y Google Colab
Clase 16 de 19 • Curso de Transfer Learning con Pytorch y OpenAI
Resumen
¿Cómo se realiza el proceso de fine tuning en modelos?
El proceso de fine tuning es fundamental para ajustar modelos preentrenados a nuestras necesidades específicas. En la cuarta sección del fine tuning, definimos la cantidad de etiquetas, similar a lo que hacemos en Computer Vision. Por ejemplo, cuando se clasifica si un review es positivo o negativo, las etiquetas se reducen a dos: cero o uno.
Para la implementación, los pasos incluyen:
- Definir la estructura del modelo, pasando por diversas etapas como los
input ID
,hidden state
, y losoutputs
. - Evaluar la precisión con métricas adecuadas, usando herramientas como
evaluate
. - Calcular las predicciones y sus probabilidades.
¿Qué es el Hugging Face Hub y cómo lo integramos?
El Hugging Face Hub es una plataforma que permite cargar modelos y conjuntos de datos de forma gratuita. Para comenzar a usarlo, es necesario definir credenciales con permisos de escritura, asegurando que el token creado tenga las configuraciones adecuadas.
Pasos para integrar Hugging Face Hub:
- Crear un token de escritura.
- Definir el nombre del modelo, por ejemplo, usando el modelo
Roberta
. - Configurar parámetros de entrenamiento según las necesidades del hardware disponible, como
batch size
y número deepochs
. - Finalmente, cargar y guardar el modelo entrenado para posteriormente subirlo al Hugging Face Hub.
¿Cómo se utiliza Wait and Biases para el monitoreo?
Wait and Biases es una herramienta esencial para monitorear el entrenamiento de modelos. Aunque se utilice una GPU en Google Colab, esta se requiere principalmente para procesar los datos. Wait and Biases ofrece un monitoreo eficiente durante el entrenamiento.
- Creación de una cuenta gratuita en Wait and Biases.
- Autorización con la API Key proporcionada por la plataforma.
- Monitoreo de métricas en tiempo real y resultados visibles incluso en el notebook.
¿Cómo probamos y validamos nuestros modelos entrenados?
Una vez entrenado y subido el modelo a Hugging Face, se puede utilizar para realizar inferencias y predicciones. Para el análisis de sentimientos, usamos la herramienta Pipeline
de Transformers.
Proceso de validación:
- Importar
Pipeline
e integrar el modelo con el usuario y el proyecto. - Probar con ejemplos de reviews, como:
- "Me encantó el pantalón": asociado a una valoración positiva con un 99% de certeza.
- "Te obligan a comprar dos unidades": se clasifica con una valoración negativa con un 94% de certeza.
- Los resultados proporcionan certeza clara sobre la evaluación del sentimiento de cada review.
Los desafíos de probar multitud de ejemplos reales con este modelo brindan una excelente oportunidad de aprendizaje. La accesibilidad del notebook desde la sección de recursos permite explorar a fondo todas estas posibilidades.
Transformers se destaca como una de las librerías más utilizadas en el mundo de NLP, y su capacidad para el fine tuning a través de plataformas como Hugging Face o incluso APIs avanzadas como OpenAI presentan funcionalidades prometedoras en este ámbito.