Modelos Markovianos latentes (HMM)

5/26
Recursos

Aportes 13

Preguntas 1

Ordenar por:

Los aportes, preguntas y respuestas son vitales para aprender en comunidad. Regístrate o inicia sesión para participar.

Se ve genial el punto en donde da la explicación del uso de los modelos Markovianos en el etiquetado de palabras. Algo que encontré y me sirvió mucho es la siguiente definición.

La cadena de Markov es una serie de eventos, en la que la probabilidad de que ocurra un evento depende del evento anterior. Este tipo de cadenas tienen memoria.

Increible como se puede explicar algo que parece bastante complejo a primera vista de una manera tan sencilla. Increíble profesor!!!

Este es el vídeo más corto que encontré donde se explica probabilidad condicional por si alguien quiere un pequeño repaso
https://www.youtube.com/watch?v=rN6IWbanhy0

import numpy as np

def probabilities(vec:list , ev_a: str, ev_b: str):
  n = len(vec) - 1
  i = [idx for idx, val in enumerate(vec) if val == ev_a]
  num = len([count for count, val in enumerate(i) if val+1 < len(vec) and vec[val+1] == ev_b])
  p_num = num/n
  den = len([count for count, val in enumerate(i) if val < len(vec)-1])
  p_den = den/n
  return p_num / p_den
def matriz_trans(dic: dict, vec: list):
  res = []
  for k, v in dic.items():
    res.append([probabilities(vec, k, key) for key in dic.keys()])
  res_out = np.array(res)
  return res_out
def pi_1(pi_0: list, matrix: np.array):
  return pi_0 @ matrix
pi_1([0.4,0.2,0.4], matriz_trans(dict_day_temp, h0))
array([0.2, 0.6, 0.2])
Muy buena explicación de las cadenas de Markov.

Hola Francisco en el podcast hablaste sobre la importancia de usar docker como harías para crear tus proyectos con contenedores de una manera sencilla

es posible que pueda usar modelos parecidos a los de markov, en el caso que quiera anticipar la probabilidad que el idioma que estudio, tenga la misma etiqueta que el idioma con que lo traduzco… se ve bien, a donde me ha llevado todo esto

Efectivamente, cuando construye la Matriz de Transición de Estados en el minuto 5:58, el valor de C_3,1 es 1 (como dice el profesor) y no 1/2 (como lo muestra el video).
En este sentido, la respuesta correcta de las probabilidades resultantes del día siguiente son [0.2, 0.6, 0.4] y NO [0.2, 0.6, 0.2]como aparece en el video.

que bien

Esta clase estuve genial, ver como eventos previos pueden ser estimados a través de una secuencia me recuerda a las máquinas de estados vistas en los conceptos básicos de la electrónica digital.

Amigos de master recomiendo antes de tomar este curso haberse visto el de Matemáticas para DS: Probabilidad, también dicatado por Francisco https://platzi.com/clases/ds-probabilidad/

  • Por si quieren dar el extra se pueden hacer el 10 days of statistics de HACKER RANK