No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Bayes en machine learning

16/17
Recursos

Aportes 46

Preguntas 3

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Me encant贸 este curso introductorio! Es el primero que veo con Pacho y me gust贸 que es muy claro y conciso

MAP (Maximum a Posteriori Probability)
De la misma manera que el algoritmo MLE consiste en maximizar la probabilidad para ajustarla mejor a los datos:
P(h|D) = P(D|h)P(h)/P(D)
鈫 max P(h|D) = max P(D|h)P(h)
Eliminamos P(D) puesto que es el mismo valor para el conjuto de datos

Nota:

  • Puesto que no podemos hallar la probabilidad de la verosimilitud de manera exacta (Lo que lllamar铆amos un modelo Optimal Bayes) puesto que computacionalmente es muy complicado, simplificamos el modelo a la probabilidad de cada uno de los atributos (Modelo conocido como Naive Bayes):
    P(D|h) = P(X1,X2,鈥,Xn|h) = P(X1|h)P(X2|h)鈥(Xn|h)

Excelente curso con un gran profesor muy didactico para explicar algunos temas que son un poco densos, y lo mejor son los ejemplos dados.
Mis felicitaciones.

Sklearn y stats de python y R respecticamente permiten aplicar el clasificador de naive bayes en aprendizaje supervisado

En el siguiente video explican con otro ejemplo lo que es Naive Bayes:
https://www.youtube.com/watch?v=jS1CKhALUBQ

Pens茅 en dejar de lado este curso debido a la pobre explicaci贸n de este profesor, el cual esta enfocado netamente a personas con estudios en el 谩rea. Pero agradezco que me record贸 que ** en matem谩ticas siempre hay mas de una forma de hacer las cosas**, por eso busque otros m茅todos y explicaciones de lo que el dec铆a y as铆 logre entender de que se trata, (en si s贸lo me sirvieron los t铆tulos de cada video). Recomiendo ampliamente al @team platzi, hacer este curso con lenguaje m谩s universal para que las personas sin conocimiento previos lo entendamos, o m铆nimo, (como ya lo dije en varios comentarios anteriores), al empezar el curso indicar que conocimientos previos debemos tener para entender de qu茅 habla, asi nos instruimos antes de empezar a tomarla y no sufrimos tanto en el proceso鈥

Buenas noches

En el taller de las lecturas 6-7-8, el profesor trat贸 de escribir las siguientes ecuaciones:

Espero contribuir. Saludos cordiales.

Revis茅 el video que un compa帽ero comparti贸 anteriormente y pude finalmente quitarme las dudas en cuanto a la resoluci贸n del ejercicio.

Aqui el video

Tuve muchos problemas con este curso porque desconozco muchos conceptos. Sin embargo, al regresar a los primeros videos del curso, algunas cosas se vuelven mas claras. Admiro mucho el enorme conocimiento de Francisco. Es claro que entiende muy bien el tema y sabe explicarlo. Aun cuando me quedo con duda, estoy seguro que se deben mas a mi inexperiencia que a la calidad del curso.

Este video est谩 bastante bien para una explicaci贸n detallada de la aplicaci贸n de Naive Bayes a un ejemplo de clasificaci贸n de spam mail
https://www.youtube.com/watch?v=O2L2Uv9pdDA

Buenas noches

Tambi茅n presento las ecuaciones de las lecturas 9-10.

Un saludo.

excelente curso, los cursos de este profesor son los mejores

Bayes en Machine Learning

En el area frecuentista se trabaja con el MLE (Estimacion de Maxima Verosimilitud), mientras que en el area bayesiana con MAP (Maximo Aposteriori). Consiste en lo siguiente:

  • Dado un conjunto de datos D, cual es la probabilidad de que conociendo el conjunto de datos D tenga una hipotesis h que describa D.
  • Por el T de Bayes tenemos que la Verosimilitud es: Cual es la probabilidad de D dado h P(D | h) por la probabilidad asociada a ese modelo h P(h) sobre las evidencias que en este caso son las probabilidades de ese conjunto de datos D, P(D)
  • En MLE se optimiza la Verosimilitud. En el esquema Bayesiano se optimiza la probabilidad a posteriori P(h | D). Esto se traduce en encontrar el maximo del producto de dos probabilidades.
  • La evidencia no se toma en cuenta porque, sin importar el modelo que estamos usando, la evidencia siempre es la misma. Ademas esto permite reducir el problema de 3 probabilidades a solo 2

En MAP lo que estamos es hallando un maximo con base a las probabilidades posteriori que es simplemente obtener unos parametros a partir de los datos y no obtener los datos a partir de parametros como en MLE

Clasificador de Naive Bayes

Este clasificador lo que hace es asignar una probabilidad de que un documento pertenezca a alguna de las categorias definidas y luego se selecciona la mayor de las probabilidades y decimos que ese documento pertences a la categoria con la mayor probabilidad.

Tambien pueden estar basados en una filosofia bayesiana. Esto implica calcular el maximo de la probabilidad posteriori que es: dado un conjunto de datos D, la probabilidad asociada de tener un modelo con unos parametros de modelamiento

max P(h | D)

Lo cual se reduce a calcular el maximo de la Verosimilitud que es: dada una hipotesis de modelamiento, la probabilidad de tener esos datos P(D | h) por la probabilidad asociada al modelo que estamos considerando P(h)

max P(h | D) = max P(D | h)*P(h)

El problema fundamental con el producto de probabilidades es que esas probabilidades son muy dificiles de calcular debido a que el espacio muestral es extremadamente grande.

Si no se considera las simplifcaciones sobre las probabilidades entonces se tiene un Clasificador Optimal Bayes. Lo ideal es llegar a un modelo con este esquema aunque en la realidad sea costoso computacionalmente

Otra manera de superar la dificultad es factorizar la similitud en probabilidades mas sencillas

P(D | h) = P({x1, x2, x3,..., xn} | h)

Esto se puede expresar como una probabilidad sobre cada punto del dataset de forma independiente (factorizar como un producto de probabilidades independientes). Esto reduce considerablemente el espacio muestral. A esta simplificacion se llama Naive Bayes

P(D | h) = P({x1, x2, x3,..., xn} | h) = P(x1 | h)*P(x2 | h)*.....*P(xn | h)

Las formulas de varios PDFs no se pueden leer. Seria bueno que los subieran otra vez 馃槂

Creo que necesito ver dos veces este curso. Si bien tengo conocimientos en estad铆stica, voy a profundizar nuevamente en la parte matem谩tica fundamental de la estad铆stica inferencial y lo ver茅 nuevamente, creo que es una metodolog铆a para entender a la perfecci贸n lo que se explica aqu铆.

De todos los profesores que he visto en Platzi, Francisco se lleva las 5 estrellas por las detalladas explicaciones y su did谩ctica . Me recuerda a mi estimado Profesor Clodomiro Miranda de C谩lculo de Probabilidades de la UNALM. 鉂わ笍

Que curso tan interesante.
Justo lo que iba a decir鈥 que faltaban ejercicios pr谩cticos para aplicar lo aprendido.
Nos vemos en la pr贸xima clase para hacerlos.
Gracias.

Muy buen curso, explica muy bien!!

Excelente curso!

Buen curso profe, termin茅 el curso, pero tengo que volver a repasar muchos conceptos y formulas. saludos

Excelente curso, he pasado desde stata, luego R, ahora estoy con python y creo que las bases son muy importante. aunque se llega casi al mismo fin, varia el lenguaje.

Excelente curso Francisco! y gracias a vos por compartir tus conocimientos.

muy buena explicaci贸n, lo explica de una forma muy clara.

gracias profesor por tus clases. Este es uno de los mejores cursos por su contenido y su pedagog铆a

驴Cu谩l es la probabilidad de obtener 2 caras o menos a partir de 3 lanzamientos de moneda (p=0.5) ?

Por alguna raz贸n esta pregunta del examen no da por correcta la rpta 6/8.

SUPER CLARO, hay mas conceptos por supuesto, pero la base es s贸lida

Muy bien explicado todo, ahora a hacer los retos!

1

Esta es la diferencias entre la escuela frecuentista y bayesiana explicada por ChatGPT:

La estad铆stica frecuentista se centra en la frecuencia de los datos y en la probabilidad condicional de los datos dada una hip贸tesis. La probabilidad frecuentista se define como la frecuencia l铆mite de un evento en un n煤mero infinito de repeticiones de un experimento. En este enfoque, la probabilidad de un evento se considera como un valor objetivo que existe en la naturaleza, independientemente del conocimiento o creencia del observador.

Por otro lado, la estad铆stica bayesiana se centra en la creencia del observador y en la actualizaci贸n de la probabilidad de una hip贸tesis a medida que se obtiene nueva informaci贸n. La probabilidad bayesiana se define como la medida de la creencia o confianza de un observador en una hip贸tesis, dado un conjunto de datos observados. En este enfoque, la probabilidad se considera como una medida subjetiva de la incertidumbre o ignorancia de un observador, que se actualiza a medida que se obtiene nueva informaci贸n.

Un ejemplo de la diferencia entre estos enfoques podr铆a ser el lanzamiento de una moneda. Supongamos que tienes una moneda que no sabes si es justa o no, y quieres estimar la probabilidad de obtener cara al lanzarla.

En el enfoque frecuentista, se realizar铆a un n煤mero grande de lanzamientos de la moneda y se contar铆a el n煤mero de veces que sale cara. La probabilidad estimada se basar铆a en la frecuencia relativa de las veces que sale cara en relaci贸n al n煤mero total de lanzamientos. La probabilidad se considerar铆a como un valor objetivo, independiente de la persona que realiza los lanzamientos.

En el enfoque bayesiano, se tendr铆a una creencia inicial acerca de la probabilidad de obtener cara, antes de lanzar la moneda. Esta creencia se actualizar铆a a medida que se realizan los lanzamientos y se observan los resultados. Por ejemplo, si se cree que la probabilidad de obtener cara es del 50% antes de lanzar la moneda, y se obtienen 3 caras en 5 lanzamientos, la creencia se actualizar铆a y la probabilidad estimada de obtener cara podr铆a ser mayor que el valor inicial.

En resumen, la estad铆stica frecuentista se enfoca en la frecuencia de los datos y la probabilidad condicional, mientras que la estad铆stica bayesiana se enfoca en la actualizaci贸n de la creencia de un observador a medida que se obtiene nueva informaci贸n. Ambos enfoques tienen sus propias ventajas y desventajas y se utilizan para diferentes aplicaciones en la estad铆stica y la ciencia en general.

隆Excelente curso, contenido y catedr谩tico!
Ojal谩 haya curso de redes bayesianas y de modelos de Markov.

Leyendo los comentarios del curso me da mucha curiosidad c贸mo era la carrera de Data Science hace 2 a帽os, porque ahora si hay buena base previa antes de este curso, pero se ve que en ese momento no hab铆a. Una pena por los que lo hicieron antes, pero me considero afortunado de que haya mejorado tanto Platzi.

El curso fue bueno, pero al final falto mas contexto y no se entendi贸 muy bien, o al menos para mi.

import pickle
from sklearn.base import BaseEstimator
from scipy.sparse import issparse


class DenseTransformer(BaseEstimator):
    def __init__(self, return_copy=True):
        self.return_copy = return_copy
        self.is_fitted = False

    def transform(self, X, y=None):
        if issparse(X):
            return X.toarray()
        elif self.return_copy:
            return X.copy()
        else:
            return X

    def fit(self, X, y=None):
        self.is_fitted = True
        return self

    def fit_transform(self, X, y=None):
        return self.transform(X=X, y=y)


pipeline_gaussiano = pickle.load(open("naive_noticias_model.pickle", "rb"))

n1 = ["驴Cansado de que te roben Internet? Aqui puedes darte cuenta de quienes tienen tu wifi"]
n2 = ["Los cineastas mexicanos se unen para crear un fondo de emergencia ante la contingencia sanitaria"]
n3 = ["10 pel铆culas y series de terror en Netflix para ver este fin de semana"]
r1=pipeline_gaussiano.predict(n1)
r2=pipeline_gaussiano.predict(n2)
r3=pipeline_gaussiano.predict(n3)
print ("=====================")
print ("Noticia: " + str(n1))
print ("Categor铆a probable: " + str(r1))
print ("Noticia: " + str(n2))
print ("Categor铆a probable: " + str(r2))
print ("Noticia: " + str(n3))
print ("Categor铆a probable: " + str(r3))

Buen curso introductorio a la probabilidad para Machine Learning 馃殌

Una explicaci贸n muy visual del teorema de Bayes:

https://www.youtube.com/watch?v=R13BD8qKeTg&t=558s

Excelente curso y profesor, nos llevo de lo sencillo a lo complejo que es la introducci贸n a otro de los niveles de ML, me gustaron las explicaciones en el board y los ejemplos claros y como se podria aplicar, esto es muy importante para establecer de donde vienen las cosas para luego aplicarlas en una formula sencilla, ser profesionales en datos, evitar los profesionales en copy-paste formulas o notebooks
No ense帽o a comprender de donde vienen las cosas, es muy importante

Buen aporte, gracias.

Muy buen curso introductorio profe Francisco, ojala los proximos sean igual de buenos

Fue un curso bastante desafiante en la parte final, donde tuve que recordar varios conceptos para mantener el ritmo y excelente la forma de explicar los temas. Ya hab铆a estudiado el teorema de Bayes pero no lo hab铆a entendido de forma tan sencilla como se hizo aqu铆.

Muy buen curso.
Muchas gracias!

Pancho siempre excelente. Particularmente este curso tuvo videos excelentes y donde comprend铆 muy bien, sin embargo a medida que se avanzaba otros ten铆an m谩s complicaciones. A seguir aprendiendo!

Excelente curso que me permiti贸 repasar muchos de los conocimientos que adquir铆 en la universidad y sobre todo me motiva a seguir avanzando en la carrera de data Science.

Excelente curso, muchas gracias Francisco. 馃槂

Muy buen curso, junto con el de Calculo son mis favoritos 馃槃

Gracias Francisco!!