Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

Resolviendo un problema de clasificación múltiple

23/28
Recursos

Aportes 6

Preguntas 4

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Para este tipo de problemas es mejor utilizar Word Embeddings ya que one hot encoding no es eficiente en cuanto al huso de la memoria, para este ejemplo tenemos que generar un vector de 10000 entradas para poder codificar un feature o label.
Em cambio con Word Embeddings a cada palabra se le asocia un vector n-dimensional que puede ser de 128, 265, 512 … etc.
y este tipo de codificación te permite encontrar mejores relaciones entre las palabras.

para mas información revisar la documentación de TensorFlow en el siguiente enlace.

https://www.tensorflow.org/tutorials/text/word_embeddings?hl=es-419

Para poder cargar la función to_categorical me sirvió esta línea:

from tensorflow.keras.utils import to_categorical

Algo que me parce muy importante resaltar:
“La función de activación SOFTMAX se lleva muy bien con la clasificación múltiple, debido a que te devuelve las probabilidades de cada salida sin importar cuántas clases haya”. En eso difiere de la función SIGMOID, que es muy útil para clasificación binaria.

from tensorflow.keras.utils import to_categorical
# quien tenga problemas en colab, puede utilizar esta instrucción

Categorical Crossentropy

Si no quieren usar enconding pueden usar como perdida SparseCategoricalCrossEntropy como funcion de perdida, asi pueden colocar las labels tal cual estan