Un vídeo para una demostración gráfica del MLE
https://www.youtube.com/watch?v=XepXtl9YKwc&t=87s
Incertidumbre y probabilidad
¿Qué es la probabilidad?
Probabilidad en machine learning
Fundamentos de probabilidad
Tipos de probabilidad
Ejemplos de cálculo de probabilidad
Ejemplos avanzados con probabilidad
Distribuciones de probabilidad
¿Qué es una distribución?
Distribuciones discretas
Usando la distribución binomial
Distribuciones continuas
¿Cómo estimar una distribución?
MLE (Maximum Likelihood Estimation)
¿Qué es MLE?
MLE en machine learning
Regresión logística
Aplicación de regresión logística
Inferencia bayesiana
Teorema de Bayes
Bayes en machine learning
Retos finales
Aún no tienes acceso a esta clase
Crea una cuenta y continúa viendo este curso
Aportes 25
Preguntas 3
Un vídeo para una demostración gráfica del MLE
https://www.youtube.com/watch?v=XepXtl9YKwc&t=87s
Les dejo un artículo de Towards Data Science escrito por Johnny Brooks-Bartlett muy fácil de digerir y que complementa muy bien la introducción del profe Francisco: Probability concepts explained: Maximum likelihood estimation
Es tan claro que mi única pregunta es:
En qué lugar puedo conseguir el termo que el profesor mostró al principio de la clase? XD
MLE (Maximum Likelihood Estimation)
O estimación de máxima verosimilitud. Consiste en escoger la distribucion que más se ajuste a nuestros datos, para ello maximizamos la probabilidad de nuesto modelo:
P(X,θ)=L(X,θ)
max L(X,θ) → maxΠP(Xi,θ)
Nota:
El producto de mútiples probabilidades (por tanto son menores a 1) genera número cada vez más pequeños al punto que no son reconocimos por la máquina, a esto se llama underflow para evitar esta situacion usamos logaritmos:
max log L(X,θ) → maxΣ log P(Xi,θ)
resumen: MLE, buscar la mejor forma de adaptar un algoritmo a una muestra, para predecir lo que sucederá con partículas que tienen comportamientos parecidos
El objetivo del MLE es encontrar la manera más óptima de encajar una distribución a los datos
Un poco para complementar:
min 0:35 -> Paranormal Distribution JAJAJA
Es un framework para estimación de densidades de probabilidades dentro de un esquema de trabajo muy general.
Les dejo una pagina relacionado al tema :
https://economipedia.com/definiciones/estimacion-de-maxima-verosimilitud.html
MLE, o como lo aprendi en la universidad: ajuste de los datos a una distribución de probabilidades.
Al margen de toda la explicación que por demás está clarísima me sorprende “el truco” (por llamarlo de forma coloquial) que se implementó con la operación de logaritmos, el ingenio es parte fundamental para resolver problemas!
¡SORPRENDIDO!
Como un problema matemático cambia por completo la eficiencia de una maquina.
MLE Maximum Likelyhood Estimation
Underflow (Precisión limite de una computadora) se soluciona utilizando aplicando el Logaritmo de la probabilidad, por la propiedad log(a*b)=log(a)+log(b), entonces se convierte las multiplicaciones en suma y los resultados de los logaritmos se convierte en números negativos relativamente grandes.
Un aporte más.
https://www.youtube.com/watch?v=e3ZJ-7QZM9I
likelihood lo podemos traducir como el encaje, es decir que tan bien podemos adaptar una distribucion de probabilidad a unos datos.
Esto con el animo de hacer mas facil hacer predicciones.
Hola a todos le dejo esta pagina q me parecio muy interesante espero q le sirva, saludos. https://seeing-theory.brown.edu/probability-distributions/es.html
https://www.youtube.com/watch?v=XepXtl9YKwc Este video me ayudo mucho a complementar los conceptos de esta clase
Encontré un buen artículo sobre MLE 😃 :
https://www.kdnuggets.com/2019/11/probability-learning-maximum-likelihood.html
Elementos de MLE: Escoger distribucion & Escoger parametros de distribucion
Si alguna duda de MLE escribí un pequeño tutorial -> Tutorial : )
Muy buena esta clase, voy a seguir investigando sobre el MLE
¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.