Para poder hacer inferencia con el nuevo modelo faltaron algunos detalles:
|
Es necesario guardar el archivo de vocabulario para usarlo en el nuevo entorno.
# guardar vocabulario creado con el dataset
torch.save(vocab, 'vocab.pt')
#carga del vocabulario:
vocab = torch.load('vocab.pt')
E importar el tokenizador con el que fue creado para definir el text_pipeline
from torchtext.data.utils import get_tokenizer
tokenizer = get_tokenizer("TU_TOKENIZADOR")
# Definir text pipeline
text_pipeline = lambda x: vocab(tokenizer(x))
Y después de agregar esto podemos hacer inferencia con el modelo.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?