Crea una cuenta o inicia sesi贸n

隆Contin煤a aprendiendo sin ning煤n costo! 脷nete y comienza a potenciar tu carrera

Modelos Markovianos latentes (HMM)

5/26
Recursos

Aportes 15

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

Se ve genial el punto en donde da la explicaci贸n del uso de los modelos Markovianos en el etiquetado de palabras. Algo que encontr茅 y me sirvi贸 mucho es la siguiente definici贸n.

La cadena de Markov es una serie de eventos, en la que la probabilidad de que ocurra un evento depende del evento anterior. Este tipo de cadenas tienen memoria.

Increible como se puede explicar algo que parece bastante complejo a primera vista de una manera tan sencilla. Incre铆ble profesor!!!

import numpy as np

def probabilities(vec:list , ev_a: str, ev_b: str):
  n = len(vec) - 1
  i = [idx for idx, val in enumerate(vec) if val == ev_a]
  num = len([count for count, val in enumerate(i) if val+1 < len(vec) and vec[val+1] == ev_b])
  p_num = num/n
  den = len([count for count, val in enumerate(i) if val < len(vec)-1])
  p_den = den/n
  return p_num / p_den
def matriz_trans(dic: dict, vec: list):
  res = []
  for k, v in dic.items():
    res.append([probabilities(vec, k, key) for key in dic.keys()])
  res_out = np.array(res)
  return res_out
def pi_1(pi_0: list, matrix: np.array):
  return pi_0 @ matrix
pi_1([0.4,0.2,0.4], matriz_trans(dict_day_temp, h0))
array([0.2, 0.6, 0.2])

Hola Francisco en el podcast hablaste sobre la importancia de usar docker como har铆as para crear tus proyectos con contenedores de una manera sencilla

Este es el v铆deo m谩s corto que encontr茅 donde se explica probabilidad condicional por si alguien quiere un peque帽o repaso
https://www.youtube.com/watch?v=rN6IWbanhy0

Amigos de master recomiendo antes de tomar este curso haberse visto el de Matem谩ticas para DS: Probabilidad, tambi茅n dicatado por Francisco https://platzi.com/clases/ds-probabilidad/

  • Por si quieren dar el extra se pueden hacer el 10 days of statistics de HACKER RANK
Muy buena explicaci贸n de las cadenas de Markov.

El concepto de caena markoviana tambi茅n se utiliza en el aprendizaje no supervisado por reforzamiento, espec铆ficamente el q-learning,

Me parece que hay alguna clase de error con la notaci贸n y/o uso de las f贸rmulas en esta clase. La raz贸n es la siguiente:

Para obtener la matriz de transicici贸n el profesor usa la f贸rmula de probabilidad condicional, que dice P(A | B) = P(B,A)/P(B), donde adem谩s sabemos por teor铆a que P(A,B)= P(B, A) (Notar que eso se usa para demostrar el teorema de Bayes). Si fuera el caso de que realmente debemos usar la f贸rmula de probabilidad condicional para obtener la matriz de transici贸n, entonces deber铆a cumplirse siempre que P(3,2)= P(2, 3), lo cual no es cierto seg煤n lo que desarrolla el profesor [P(3,2) = 1/5 y P(2,3) = 0].

Encontr茅 una forma m谩s intuitiva de entender esto acorde con la teor铆a standard en estad铆stica por medio de esta fuente: https://towardsdatascience.com/time-series-data-markov-transition-matrices-7060771e362b

Salu2!

es posible que pueda usar modelos parecidos a los de markov, en el caso que quiera anticipar la probabilidad que el idioma que estudio, tenga la misma etiqueta que el idioma con que lo traduzco鈥 se ve bien, a donde me ha llevado todo esto

Efectivamente, cuando construye la Matriz de Transici贸n de Estados en el minuto 5:58, el valor de C_3,1 es 1 (como dice el profesor) y no 1/2 (como lo muestra el video).
En este sentido, la respuesta correcta de las probabilidades resultantes del d铆a siguiente son [0.2, 0.6, 0.4] y NO [0.2, 0.6, 0.2]como aparece en el video.

que bien

Esta clase estuve genial, ver como eventos previos pueden ser estimados a trav茅s de una secuencia me recuerda a las m谩quinas de estados vistas en los conceptos b谩sicos de la electr贸nica digital.