una manera más simple de corrroborar la suma de las probabilidades
sum(initTagStateProb.values())
Desambiguación y etiquetado de palabras
Introducción a la desambiguación
Etiquetado rápido en Python: español e inglés
Etiquetado rápido en Python: Stanza (Stanford NLP)
Modelos Markovianos Latentes (HMM)
Cadenas de Markov
Modelos Markovianos latentes (HMM)
Entrenando un HMM
Fases de entrenamiento de un HMM
Entrenando un HMM en Python
Algoritmo de Viterbi
El algoritmo de Viterbi
Cálculo de las probabilidades de Viterbi
Carga del modelo HMM y distribución inicial
Implementación de algoritmo de Viterbi en Python
Entrenamiento directo de HMM con NLTK
Modelos Markovianos de máxima entropía (MEMM)
Modelos Markovianos de máxima entropia (MEMM)
Algoritmo de Viterbi para MEMM
Reto: construye un MEMM en Python
Clasificación de texto con NLTK
El problema general de la clasificación de texto
Tareas de clasificación con NLTK
Modelos de clasificación en Python: nombres
Modelos de clasificación en Python: documentos
Implementación de un modelo de clasificación de texto
Naive Bayes
Naive Bayes en Python: preparación de los datos
Naive Bayes en Python: construcción del modelo
Naive Bayes en Python: ejecución del modelo
Métricas para algoritmos de clasificación
Reto final: construye un modelo de sentimientos
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
No se trata de lo que quieres comprar, sino de quién quieres ser. Aprovecha el precio especial.
Antes: $249
Paga en 4 cuotas sin intereses
Termina en:
Francisco Camacho
Aportes 7
Preguntas 2
una manera más simple de corrroborar la suma de las probabilidades
sum(initTagStateProb.values())
Hola Francisco, en primer lugar felicitarte por esta clase y todo el curso en general (lo que llevo hasta el momento), de verdad valoro muchísimo todo el trabajo que has hecho. Por otro lado, quería dar mi aporte, quizás para la identificación de las categorías gramaticales únicas se podría hacer utilizando el dict de la clase pasada que decía tagCountDict, haciendo un set de las llaves de ese diccionario. Solo como una forma de ahorrar código. Saludos!!!
Modelo Markoviano Latente > Calculo de las probabilidades de transición y emisión.
Algoritmo de Viterbi > Obtener el camino o ruta, utilizando el que tiene mayor probabilidad. Por ejemplo: “Castillo: Prop, El: Det, Noble: Adj, Trabajador: Adj”, sería la serie o ruta de etiquetas más probables para “Castillo el noble trabajador”.
Este curso me esta ayudando bastante, ya que estoy haciendo un proyecto en la maestria relacionado con la detección de odio, me hacian falta estas bases.
Que ejercicio tan bueno
para comprobar que las probabilidades suman uno era mas fácil copiar en excel y poner =SUMA()
:'v
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?