Modelos Markovianos latentes (HMM)

5/26
Recursos

Aportes 13

Preguntas 1

Ordenar por:

Los aportes, preguntas y respuestas son vitales para aprender en comunidad. Reg铆strate o inicia sesi贸n para participar.

Se ve genial el punto en donde da la explicaci贸n del uso de los modelos Markovianos en el etiquetado de palabras. Algo que encontr茅 y me sirvi贸 mucho es la siguiente definici贸n.

La cadena de Markov es una serie de eventos, en la que la probabilidad de que ocurra un evento depende del evento anterior. Este tipo de cadenas tienen memoria.

Increible como se puede explicar algo que parece bastante complejo a primera vista de una manera tan sencilla. Incre铆ble profesor!!!

Este es el v铆deo m谩s corto que encontr茅 donde se explica probabilidad condicional por si alguien quiere un peque帽o repaso
https://www.youtube.com/watch?v=rN6IWbanhy0

import numpy as np

def probabilities(vec:list , ev_a: str, ev_b: str):
  n = len(vec) - 1
  i = [idx for idx, val in enumerate(vec) if val == ev_a]
  num = len([count for count, val in enumerate(i) if val+1 < len(vec) and vec[val+1] == ev_b])
  p_num = num/n
  den = len([count for count, val in enumerate(i) if val < len(vec)-1])
  p_den = den/n
  return p_num / p_den
def matriz_trans(dic: dict, vec: list):
  res = []
  for k, v in dic.items():
    res.append([probabilities(vec, k, key) for key in dic.keys()])
  res_out = np.array(res)
  return res_out
def pi_1(pi_0: list, matrix: np.array):
  return pi_0 @ matrix
pi_1([0.4,0.2,0.4], matriz_trans(dict_day_temp, h0))
array([0.2, 0.6, 0.2])
Muy buena explicaci贸n de las cadenas de Markov.

Hola Francisco en el podcast hablaste sobre la importancia de usar docker como har铆as para crear tus proyectos con contenedores de una manera sencilla

es posible que pueda usar modelos parecidos a los de markov, en el caso que quiera anticipar la probabilidad que el idioma que estudio, tenga la misma etiqueta que el idioma con que lo traduzco鈥 se ve bien, a donde me ha llevado todo esto

Efectivamente, cuando construye la Matriz de Transici贸n de Estados en el minuto 5:58, el valor de C_3,1 es 1 (como dice el profesor) y no 1/2 (como lo muestra el video).
En este sentido, la respuesta correcta de las probabilidades resultantes del d铆a siguiente son [0.2, 0.6, 0.4] y NO [0.2, 0.6, 0.2]como aparece en el video.

que bien

Esta clase estuve genial, ver como eventos previos pueden ser estimados a trav茅s de una secuencia me recuerda a las m谩quinas de estados vistas en los conceptos b谩sicos de la electr贸nica digital.

Amigos de master recomiendo antes de tomar este curso haberse visto el de Matem谩ticas para DS: Probabilidad, tambi茅n dicatado por Francisco https://platzi.com/clases/ds-probabilidad/

  • Por si quieren dar el extra se pueden hacer el 10 days of statistics de HACKER RANK