Crea una cuenta o inicia sesión

¡Continúa aprendiendo sin ningún costo! Únete y comienza a potenciar tu carrera

Convierte tus certificados en títulos universitarios en USA

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

16 Días
14 Hrs
8 Min
22 Seg

Modelos Markovianos latentes (HMM)

5/26
Recursos

Aportes 15

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Se ve genial el punto en donde da la explicación del uso de los modelos Markovianos en el etiquetado de palabras. Algo que encontré y me sirvió mucho es la siguiente definición.

La cadena de Markov es una serie de eventos, en la que la probabilidad de que ocurra un evento depende del evento anterior. Este tipo de cadenas tienen memoria.

Increible como se puede explicar algo que parece bastante complejo a primera vista de una manera tan sencilla. Increíble profesor!!!

import numpy as np

def probabilities(vec:list , ev_a: str, ev_b: str):
  n = len(vec) - 1
  i = [idx for idx, val in enumerate(vec) if val == ev_a]
  num = len([count for count, val in enumerate(i) if val+1 < len(vec) and vec[val+1] == ev_b])
  p_num = num/n
  den = len([count for count, val in enumerate(i) if val < len(vec)-1])
  p_den = den/n
  return p_num / p_den
def matriz_trans(dic: dict, vec: list):
  res = []
  for k, v in dic.items():
    res.append([probabilities(vec, k, key) for key in dic.keys()])
  res_out = np.array(res)
  return res_out
def pi_1(pi_0: list, matrix: np.array):
  return pi_0 @ matrix
pi_1([0.4,0.2,0.4], matriz_trans(dict_day_temp, h0))
array([0.2, 0.6, 0.2])

Me parece que hay alguna clase de error con la notación y/o uso de las fórmulas en esta clase. La razón es la siguiente:

Para obtener la matriz de transicición el profesor usa la fórmula de probabilidad condicional, que dice P(A | B) = P(B,A)/P(B), donde además sabemos por teoría que P(A,B)= P(B, A) (Notar que eso se usa para demostrar el teorema de Bayes). Si fuera el caso de que realmente debemos usar la fórmula de probabilidad condicional para obtener la matriz de transición, entonces debería cumplirse siempre que P(3,2)= P(2, 3), lo cual no es cierto según lo que desarrolla el profesor [P(3,2) = 1/5 y P(2,3) = 0].

Encontré una forma más intuitiva de entender esto acorde con la teoría standard en estadística por medio de esta fuente: https://towardsdatascience.com/time-series-data-markov-transition-matrices-7060771e362b

Salu2!

Amigos de master recomiendo antes de tomar este curso haberse visto el de Matemáticas para DS: Probabilidad, también dicatado por Francisco https://platzi.com/clases/ds-probabilidad/

  • Por si quieren dar el extra se pueden hacer el 10 days of statistics de HACKER RANK

Hola Francisco en el podcast hablaste sobre la importancia de usar docker como harías para crear tus proyectos con contenedores de una manera sencilla

Muy buena explicación de las cadenas de Markov.
### **Aplicaciones de los Modelos Ocultos de Markov** Los HMM tienen aplicaciones en diversas áreas, donde los estados subyacentes no se observan directamente pero las observaciones proporcionan pistas sobre estos. Algunas aplicaciones incluyen: * **Reconocimiento de voz:** En el reconocimiento de voz, las secuencias de audio (observaciones) son generadas por un modelo subyacente de fonemas (estados ocultos). * **Etiquetado de secuencias en lenguaje natural:** Para etiquetar las partes del discurso (sustantivos, verbos, adjetivos, etc.) de una oración, los estados ocultos son las etiquetas gramaticales y las palabras observadas son las emisiones. * **Bioinformática:** Los HMM se utilizan en secuenciación genética para modelar regiones ocultas de ADN que generan observaciones. * **Detección de fraudes:** En la detección de fraudes, los estados ocultos podrían representar comportamientos normales o fraudulentos, y las transacciones financieras son las observaciones.

El concepto de caena markoviana también se utiliza en el aprendizaje no supervisado por reforzamiento, específicamente el q-learning,

es posible que pueda usar modelos parecidos a los de markov, en el caso que quiera anticipar la probabilidad que el idioma que estudio, tenga la misma etiqueta que el idioma con que lo traduzco… se ve bien, a donde me ha llevado todo esto

Efectivamente, cuando construye la Matriz de Transición de Estados en el minuto 5:58, el valor de C_3,1 es 1 (como dice el profesor) y no 1/2 (como lo muestra el video).
En este sentido, la respuesta correcta de las probabilidades resultantes del día siguiente son [0.2, 0.6, 0.4] y NO [0.2, 0.6, 0.2]como aparece en el video.

que bien

Esta clase estuve genial, ver como eventos previos pueden ser estimados a través de una secuencia me recuerda a las máquinas de estados vistas en los conceptos básicos de la electrónica digital.