Carga de dataset para NLP
Clase 12 de 17 • Curso de Transfer Learning con Hugging Face
Contenido del curso
Clase 12 de 17 • Curso de Transfer Learning con Hugging Face
Contenido del curso
JULIAN ESTEBAN RUIZ GONZALEZ
Robinson Raúl Ríos Vicuña
Isabela Osorio Martinez
Platzi
MARIA TERESA PANIAGUA RIVERA
Gabriel Jaime Cardona Osorio
¿Qué sucede cuando yo quiero crear mi propio data set, dado que la tarea es muy específica? ¿Cuál sería la forma de cargar todo esto?, sería con un archivo de Excel o CSV. ¿Y le pondría cada una de las etiquetas que consideraría?
¿Saben en qué lugar puedo saber más sobre este tema?
la puedes cargar con csv o excel a un df pero luego debes convertirlo con Dataset.from_pandas() por ejemplo y luego quizas un split para que se cree el train y el test. Te recomiendo buscar info sobre lo que te comento para que te ayude a guiar.
Yo necesito un modelo que me clasifique las busquedas de un eccomerce de repuestos para saber que categorias de productos y que productos está buscando las personas. Alguine me sugiere que modelo tomar? nos esi me sirva hugging face
Puedes utilizar el modelo de Procesamiento de Lenguaje Natural (NLP) de Hugging Face para clasificar las búsquedas de un ecommerce de repuestos. Puedes buscar en la categoría 'Procesamiento de Lenguaje Natural' y encontrarás modelos que te pueden ayudar con esta tarea.
Gracias
Debo admitir que fue un poco confuso el poder usar los pipelines con modelos que necesitaba de un access token, la solución es muy simple pero puede llevar un tiempo de búsqueda considerable para entender como aportar en proyectos cerrados (A pesar de que el potencial de HuggingFace son los modelos abiertos)