Entonces sería como una especie de arbol de probabilidades en donde se toma siempre la máxima probabilidad como el camino resultante.
Desambiguación y etiquetado de palabras
Introducción a la desambiguación
Etiquetado rápido en Python: español e inglés
Etiquetado rápido en Python: Stanza (Stanford NLP)
Modelos Markovianos Latentes (HMM)
Cadenas de Markov
Modelos Markovianos latentes (HMM)
Entrenando un HMM
Fases de entrenamiento de un HMM
Entrenando un HMM en Python
Algoritmo de Viterbi
El algoritmo de Viterbi
Cálculo de las probabilidades de Viterbi
Carga del modelo HMM y distribución inicial
Implementación de algoritmo de Viterbi en Python
Entrenamiento directo de HMM con NLTK
Modelos Markovianos de máxima entropía (MEMM)
Modelos Markovianos de máxima entropia (MEMM)
Algoritmo de Viterbi para MEMM
Reto: construye un MEMM en Python
Clasificación de texto con NLTK
El problema general de la clasificación de texto
Tareas de clasificación con NLTK
Modelos de clasificación en Python: nombres
Modelos de clasificación en Python: documentos
Implementación de un modelo de clasificación de texto
Naive Bayes
Naive Bayes en Python: preparación de los datos
Naive Bayes en Python: construcción del modelo
Naive Bayes en Python: ejecución del modelo
Métricas para algoritmos de clasificación
Reto final: construye un modelo de sentimientos
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Francisco Camacho
Aportes 8
Preguntas 4
Entonces sería como una especie de arbol de probabilidades en donde se toma siempre la máxima probabilidad como el camino resultante.
Me ha gustado mucho este curso, las clases y el nivel se parecen a las que uno encuentra en los cursos de Stanford o MIT en plataformas como EdX o coursera.
Se explican al detalle los algoritmos y su implementacion. Ojala todos los cursos de platzi tuvieran este nivel de calidad, ya que en algunos dejan muchas cosas sueltas y asumen que el estudiante ya conoce.
Agradecimientos a Francisco Camacho por su excelente presentacion.
Castillo el noble trabajador. Sabemos que ambas palabras, “noble” y “trabajador” pueden ser adjetivos o sustantivos… El algoritmo de Viterbi que hemos utilizado nos indica que ambas son adjetivos.
Sin embargo no es esto un error?
Si la frase fuera: 'Castillo el muchacho trabajador", muchacho sería un sustantivo y trabajador sería el adjetivo.
Si la frase fuera: 'Castillo el noble hermoso", noble sería sustantivo y hermoso sería un adjetivo.
Por qué al usar noble y trabajador juntos la respuesta es ambos adjetivos? Para mí no tiene sentido gramatical a menos que después venga otro sustantivo, por ejemplo, Castillo el noble trabajador muchacho.
Pero al usar ambos juntos, Castillo tiene que ser un noble (de la nobleza) que además es de carácter trabajador, o es un trabajador (empleado) que además tiene carácter noble.
Será éste un ejemplo de por qué Viterbi se queda corto?
Para mí este ejemplo es súper ambiguo, estoy sola?
Buscando por internet encontré que existen otros modelos que también se pueden utilizar para realizar tareas similares a las del algoritmo de Viterbi. Por ejemplo, el Forward-Backward algorithm se utiliza en HMM para calcular la distribución de probabilidad posterior de los estados ocultos en una secuencia observada. Otro modelo que se puede utilizar es el algoritmo Baum-Welch, que se utiliza para entrenar modelos HMM a partir de datos de entrenamiento.
Gran explicación! Hora de refrescar todos los conocimientos de algebra lineal y estadística!
Excelente explicación.
que gran curso
La probabilidad inicial se define por un conocimiento previo de las probabilidades?
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?