CursosEmpresasBlogLiveConfPrecios

Ejercicios de Probabilidad para Ciencia de Datos

Clase 17 de 17 • Curso de Matemáticas para Data Science: Probabilidad

Contenido del curso

Incertidumbre y probabilidad

  • 1
    Fundamentos de Probabilidad para Ciencia de Datos

    Fundamentos de Probabilidad para Ciencia de Datos

    13:00 min
  • 2
    Probabilidad en Machine Learning: Fuentes de Incertidumbre y Modelos

    Probabilidad en Machine Learning: Fuentes de Incertidumbre y Modelos

    09:30 min

Fundamentos de probabilidad

  • 3
    Tipos de Probabilidad: Conjunta, Marginal y Condicional

    Tipos de Probabilidad: Conjunta, Marginal y Condicional

    11:28 min
  • 4
    Probabilidades Condicionales y Correlación de Eventos Aleatorios

    Probabilidades Condicionales y Correlación de Eventos Aleatorios

    09:24 min
  • 5
    Paradojas de Probabilidad: Niño o Niña y Monty Hall

    Paradojas de Probabilidad: Niño o Niña y Monty Hall

    15:07 min

Distribuciones de probabilidad

  • 6
    Funciones y Distribuciones de Probabilidad en Cálculo

    Funciones y Distribuciones de Probabilidad en Cálculo

    10:23 min
  • 7
    Distribuciones Discretas: Bernoulli y Binomial

    Distribuciones Discretas: Bernoulli y Binomial

    14:56 min
  • 8
    Cálculos con Distribución Binomial en Google Colab usando Python

    Cálculos con Distribución Binomial en Google Colab usando Python

    19:19 min
  • 9
    Análisis de Distribuciones Continuas: Enfoque en la Gaussiana

    Análisis de Distribuciones Continuas: Enfoque en la Gaussiana

    18:28 min
  • 10
    Estimación de Distribuciones de Probabilidad en Google Colab

    Estimación de Distribuciones de Probabilidad en Google Colab

    15:20 min

MLE (Maximum Likelihood Estimation)

  • 11
    Estimación de Máxima Verosimilitud en Modelado Estadístico

    Estimación de Máxima Verosimilitud en Modelado Estadístico

    07:22 min
  • 12
    Regresión Lineal con Estimación de Máxima Verosimilitud en Machine Learning

    Regresión Lineal con Estimación de Máxima Verosimilitud en Machine Learning

    13:54 min
  • 13
    Regresión Logística y Estimación de Máxima Verosimilitud

    Regresión Logística y Estimación de Máxima Verosimilitud

    11:32 min
  • 14
    Visualización de Máxima Verosimilitud en Regresión Logística

    Visualización de Máxima Verosimilitud en Regresión Logística

    15:45 min

Inferencia bayesiana

  • 15
    Teorema de Bayes: Aplicación en Diagnósticos Médicos

    Teorema de Bayes: Aplicación en Diagnósticos Médicos

    12:22 min
  • 16
    Clasificación Bayesiana y el Algoritmo Naive Bayes

    Clasificación Bayesiana y el Algoritmo Naive Bayes

    10:53 min
  • 17
    Ejercicios de Probabilidad para Ciencia de Datos

    Ejercicios de Probabilidad para Ciencia de Datos

    Viendo ahora
Tomar examen

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads

      Te doy la bienvenida al último paso de este curso de probabilidad para ciencia de datos. Es momento de que pongas a prueba todo lo que has aprendido.

      Completa los ejercicios que se proponen en cada una de las notebooks de Colab de diferentes temas cada una. Recuerda compartir tus resultados o dudas en los comentarios para que entre todos podamos apoyarnos.

      Tipos de probabilidad

      Los diferentes tipos de probabilidades que existen con frecuencia generan algo de confusión, estos ejercicios te permitirán fortalecer el entendimiento de estos conceptos:

      https://colab.research.google.com/drive/1yQFCKo2GHtbJui0szPjLhAJSjpivBeun?usp=sharing

      Distribuciones de probabilidad

      Luego de que entendemos que hay diferentes tipos de probabilidades, el concepto de distribución de probabilidad nos dice que podemos usar funciones matemáticas para mapear cada ocurrencia posible de una variable aleatoria a un número que es la probabilidad de esa ocurrencia.

      En este conjunto de retos exploramos más a fondo el cálculo con distribuciones discretas, especialmente la binomial:

      https://colab.research.google.com/drive/10xbi88L6alsPC8-cec_6VuUeh7ttFaEF?usp=sharing

      Mientras que en este otro conjunto de retos exploramos más a detalle la distribución gaussiana como representante de las distribuciones continuas:

      https://colab.research.google.com/drive/1OVQ0fwQ1q1lPFjmjPHyuCkD58SZfm4o9?usp=sharing

      Estimación de densidades de probabilidad

      Uno de los métodos más importantes para estimar densidades de probabilidad es el MLE (Maximum Likelihood Estimation), del cual podrás profundizar en este reto:

      https://colab.research.google.com/drive/19F8F0ID9ErtiHUNbWsOIJ7f22u7jjS0d?usp=sharing

      Teorema de Bayes y machine learning

      Finalmente, encontrarás en la siguiente notebook un ejemplo donde se profundiza el desarrollo de un clasificador de Naive Bayes. Aquí verás por qué es importante el uso de distribuciones iniciales para ajustar las verosimilitudes con el fin de poder aplicar tus modelos a datos que no estaban en el dataset original de entrenamiento:

      https://colab.research.google.com/drive/1XbQ6-5Ax8Pksik2MR2kWB87ay85RMX2b?usp=sharing


      Ahora que tienes claros estos conceptos, a través del desarrollo de estos retos, espero que hayas disfrutado del curso y que con esto tengas toda la motivación para continuar con lo que sigue en temas de matemáticas, machine learning y ciencias de datos en general. Nos vemos en la próxima. ¡Nunca pares de aprender! 💚

      Comentarios

        Pablo Martino

        Pablo Martino

        student•
        hace 5 años

        Creo que estaría genial tener un solucionario oficial. Gracias!

        Fabián Vega Alcota

        Fabián Vega Alcota

        student•
        hace 5 años

        Mis Resultados de la primera parte, por favor corregían si me equivoco ;)

        Tipos de probabilidad

        I) Ejercicios (bloque 1)

        1. P(A|B) = 1/3
        2. P(A|C) = 0/3 = 0
        3. P(B|C) = 0/3 = 0

        II) Ejercicios (bloque 2)

        1. P(A|B) = 3/6 = 1/2
        2. P(A|B) = 3/6 = 1/2
        3. P(A|B) = 2/6 = 1/3

        III) Ejercicios (bloque 3)

        1. P(m_1=Cara, m_2=Sello) = 1/4
        2. P(m_1 = Cara| m_2 = Sello) = 1/2
        3. P(m_2 = Sello) = 2/4 = 1/2
          Jonathan Mardones Guzmán

          Jonathan Mardones Guzmán

          student•
          hace 5 años

          Llegué a los mismos resultados que tú :)

          David Campos

          David Campos

          student•
          hace 5 años

          pero en esa hiciste la probabilidad conjunta y no la condicional no?

        Enrique Yael C

        Enrique Yael C

        student•
        hace 5 años

        AAAAAAH hubiera amado tener estos retos durante los bloques y no hasta el final, me desespere porque casi no entendí nada. Pero con estos todo es mucho mas claro solo es repasar brevemente las clases y todo es mas fluido :)

          Wilson Montenegro

          Wilson Montenegro

          student•
          hace 5 años

          Me siento igual.

        Ciro Villafraz

        Ciro Villafraz

        student•
        hace 5 años

        Les dejo mis soluciones: Tipos de probabilidad https://colab.research.google.com/drive/1J3ckY0NPfR3KQW47UbwCJ_AN4CME4qDX

        Distribuciones discretas https://colab.research.google.com/drive/1XKfFK6HSrVVW0inS9JLEVdVv2b-g_f7s

        Distribuciones continuas https://colab.research.google.com/drive/1ppJvoABOkONuOGvOuW6lRdHn5Grbe3_R

        MLE (comprobación numérica) https://colab.research.google.com/drive/1hZJsU_Iwrfdiq5_7ZENhhLRP7ShLF-oq

          Rafael Rivera

          Rafael Rivera

          student•
          hace 4 años

          Ciro, gracias por compartir,

          Estoy tratando de comprender el ejercicio de MLE de tu código, pero me sale este error:

          --------------------------------------------------------------------------- TypeError Traceback (most recent call last) <ipython-input-49-1bcbb2f424cb> in <module>() ----> 1 print(optimal_mu(), arr.mean()) 2 #print(optimal_sigma(), arr.std()) <ipython-input-47-03d3c88fa364> in optimal_mu(arr) 53 mu = 0 54 for i in arr: ---> 55 mu += i 56 return mu/len(arr) 57 TypeError: unsupported operand type(s) for +=: 'int' and 'str'

          ya converti las variables a float, pero continua saliendo, ¿que podrá ser?

          Gracias

          Juan Camilo Arguelles Delgado

          Juan Camilo Arguelles Delgado

          student•
          hace 4 años

          Hola Rafa, a mi tambien me arrojaba el error, y radicaba en que al tomar los datos del arr, estaba tomando el header de la serie, entonces arregle el for en el codigo de las funciones creadas:

          for i in arr['Normally Distributed Housefly Wing Lengths']:

          Espero le sirva

        Angel Estrada

        Angel Estrada

        student•
        hace 5 años

        Con respecto a las lecturas 9-10, en los primeros ejercicios las respuestas son las siguientes:

        1.P(x=4)=0, muchos creerán que la respuesta sería el output de la función norm(4,0.1).pdf(4), la cual es 3.98, lo cual es falso, ya que ninguna probabilidad puede ser mayor a 1, lo que nos da esta función es el valor que toma la función de densidad, y al tratarse de una distribución de probabilidad continua, cuando se usa un número específico, la probabilidad es 0, dada la siguiente explicación los resultados siguientes son:

        2.P(x=-10)=0

        3.P(x=10)

        4.P(x<=4)=0.5, esta al contrario de las anteriores, sí se resuelve con la función de distribución acumulada, la cual es norm(4,0.1).cdf(4)

        5.P(x>=4)=0.5 y se resuelve de la siguiente forma: 1-norm(4,0.1).cdf(4)

        Con respecto al siguiente ejercicio, es un poco más complicado. La forma en que yo lo resolví, es editando la función generate_binomial_trials para que nos retorne el arreglo, que utiliza para generar el histograma, de la siguiente forma:

        def generate_binomial_trials(trials=1000, coin_toss=100): arr = [] for _ in range(trials): arr.append(binomial(coin_toss, 0.5)) values, dist = np.unique(arr, return_counts=True) return values, dist,arr values, dist, arr= generate_binomial_trials(100000)

        Posteriormente, esta lista la convierto a un arreglo de numpy para poder extraer la media y desviación estándar con el atributo .mean() y .std():

        arr = np.array(arr) mu = arr.mean() sigma = arr.std() dist = norm(mu, sigma) x = np.arange(25,75,0.1) y = [dist.pdf(value) for value in x] #distribución teórica plt.plot(x, y) # datos values, dist = np.unique(arr, return_counts=True) plt.bar(values, dist/len(arr)) plt.show()
          Ivan Ezequiel Mazzalay

          Ivan Ezequiel Mazzalay

          student•
          hace 5 años

          Gracias!! Me trabé porque tomé mal los datos en un principio y no me ajustaba la curva, gracias a tu código, encontré donde estaba fallando! Mil gracias!

          JAVIER SANTIAGO SALGADO

          JAVIER SANTIAGO SALGADO

          student•
          hace 5 años

          Gracias, mi hermano me había hecho un 8, tu código me ayudo muchísimo

        Jaime Escobedo Vargas

        Jaime Escobedo Vargas

        student•
        hace 5 años

        Bloque 2

        1. P(A|B) sabiendo que el jugador 2 elige B = {$2,4,6,8,10,12$}
        • Primero delimitamos el espacio marcado por B ya que esta es la condición. {2,4,6,8,10,12} (6 elementos)
        • Luego consideramos los puntos de intersección entre ambos jugadores. Tenemos 3 números de intersección {2,4,6}. Por lo tanto: P(A|B)= 3/6 = 1/2
        1. P(A|B) sabiendo que el jugador 2 elige B = {1,3,5,7,9,11}
        • El espacio se delimita por B y tenemos 6 elementos.
        • Los puntos de intersección son: {1,3,5} P(A|B)= 3/6 = 1/2
        1. P(A|B) sabiendo que el jugador 2 elige B = {5,6,7,8,9,10}
        • El espacio se delimita por B con 6 elementos.
        • Los puntos de intersección son : {5,6}. Solo 2. Por lo tanto P(A|B)= 2/6 = 1/3
          Sebastián Andrade

          Sebastián Andrade

          student•
          hace 5 años

          Gracias, tus aportes me han ayudado a entender en que estaba mal a la hora de resolver los ejercicios

        Mayra Carolina Morataya Guerra

        Mayra Carolina Morataya Guerra

        student•
        hace 5 años

        Ejercicios (bloque 1) P(A|B)= 1/3 P(A|C)= 0 P(B|C)= 0 Ejercicios (bloque 2) P(A|B) sabiendo que el jugador 2 elige B = { 2,4,6,8,10,12 } = 1/2 P(A|B) sabiendo que el jugador 2 elige B = { 1,3,5,7,9,11 } = 1/2 P(A|B) sabiendo que el jugador 2 elige B = { 5,6,7,8,9,10 } = 1/3 Ejercicios (bloque 3) P(m1=cara,m2=sello) = 1/4 P(m1=cara|m2=sello) = 1/2 P(m2=sello) = 1/2

        Ejercicios (bloque 1) Probabilidad de obtener 3 caras a partir de 12 lanzamientos de moneda. 0.053 , 0.2397 Probabilidad de obtener 5 o menos caras a partir de 10 lanzamientos de moneda. 0.387 , 0.882 Probabilidad de obtener menos de 6 caras a partir de 10 lanzamientos de moneda. 0.387 , 0.882

        Ejercicios (bloque 1) P(X=4) = 3.989 P(X=−10) = 0 P(X=10) = 0 P(X<=4) = 0.5 P(X>=4) = 0.5

          Ivan Ezequiel Mazzalay

          Ivan Ezequiel Mazzalay

          student•
          hace 5 años

          Obtuve los mismos resultados, muy bien! :)

          JAVIER SANTIAGO SALGADO

          JAVIER SANTIAGO SALGADO

          student•
          hace 5 años

          me dieron en la binomial distinto

          1. 0.0537 y 0.2397 2 y 3. 0.6230 y 0.95265 use esta calculadora
        Bruno Cornelio

        Bruno Cornelio

        student•
        hace 5 años

        Sé que el profe es excelente pero me voy entendiendo solo la mitad del curso jaja

        Pablo Martino

        Pablo Martino

        student•
        hace 5 años

        En las distribuciones (bloque 2) he resuelto de la siguiente forma:

        import numpy as np from numpy.random import binomial import matplotlib.pyplot as plt def generate_binomial_trials(trials=1000, coin_toss=100): ''' el resultado de esta funcion es generar un conjuntos de experimentos binomiales (trials) y de cada uno obtener las cantidades de exitos en cada secuencia (e.j. lanzar monedas). * trial: es una secuencia de <coin_toss> lanzamientos de moneda * coin_toss: es el numero de monedas lanzadas en cada trial ''' arr = [] for _ in range(trials): arr.append(binomial(coin_toss, 0.5)) values, dist = np.unique(arr, return_counts=True) return values, dist, arr #retornamos también arr values, dist, arr = generate_binomial_trials(100000) #generamos arr con la función plt.bar(values, dist) #Para estimar la distibucion normal arr = np.array(arr) mu = arr.mean() sigma = arr.std() #distinguimos esta distibucion de la generada en la funcion inicial distr_estim = norm(mu, sigma) x = np.arange(25,75,0.1) y = [distr_estim.pdf(value) for value in x] #generamos el eje y sobre la distibucion estimada (dist_estim), no sobre la original (dist) #representamos la distibucion normal estimada plt.plot(x,y,'g') #con lo siguiente representamos la distibucion inicial del experimento plt.bar(values, dist/len(arr))```
          Verni Brenes Gonzalez

          Verni Brenes Gonzalez

          student•
          hace 5 años

          Gracias! No había comprendido que "arr" era una lista y que había que convertirla con numpy!

        Anthony Dugarte

        Anthony Dugarte

        student•
        hace 5 años

        Reto 1: https://colab.research.google.com/drive/1qcFW4S9VGF8GN6Pg2APZQFDyQH3wOicZ?usp=sharing

        Reto 2: https://colab.research.google.com/drive/1f2RSaCHOsGszjigjAhkss-_SfcOpDNYt?usp=sharing

        Reto 3: https://colab.research.google.com/drive/16gClIlH2qb_0n-ZVK4GykGqh5eXVv6gN?usp=sharing

          Miguel Rodríguez

          Miguel Rodríguez

          student•
          hace 5 años

          Hola, una pregunta

          sigma = np.sqrt(np.average((values - mu) ** 2, weights=dist))

          Por qué definiste así sigma? y por que no da el mismo valor cuando usas values.std()

          Saludos.

          Anthony Dugarte

          Anthony Dugarte

          student•
          hace 5 años

          Es debido a que los valores son ponderados, si utilizamos sigma = values.std() estaríamos ignorando los pesos asociados y por ende sería un cálculo incorrecto. Lo definí de esa manera porque no encontré una manera de calcular en pandas la desviación de una variable ponderada, a diferencia del np.avergae que sí lo tiene (el param weights permite pasar estos pesos).

        JAVIER SANTIAGO SALGADO

        JAVIER SANTIAGO SALGADO

        student•
        hace 5 años

        El código de ejemplo en el segundo reto, en el ciclo for toca cambiar la i por una n, al llamar la función

        Gabriel Aristizabal Leon

        Gabriel Aristizabal Leon

        student•
        hace 5 años

        Tipos de probabilidad

        bloque1.PNG
        bloque2a.png
        bloque2b.png
        bloque3a.png
        bloque3b.png
          Alfonso Andres Zapata Guzman

          Alfonso Andres Zapata Guzman

          student•
          hace 4 años

          Muy buena solucion, lo unico es que no usaste F string.

          Alfonso Andres Zapata Guzman

          Alfonso Andres Zapata Guzman

          student•
          hace 4 años
          def bloque1(list1, list2, caso): matches = [item for item in list1 if item in list2] print(f'La probabilidad del caso {caso} es de {len(matches)} / {len(list1)}') return len(matches) / len(list1) list1 = [1, 2, 3, 4, 5, 6] list2 = [5, 6, 7, 8, 9] caso = 'prueba' print(bloque1(list1, list2, caso)) listaA = [1, 2, 3, 4, 5, 6] listaB1 = [2, 4, 6, 8, 10, 12] listaB2 = [1, 3, 5, 7, 9, 10] listaB3 = [5, 6, 7, 8, 9, 10] caso1 = 'caso 1' caso2 = 'caso 2' caso3 = 'caso 3' print(bloque1(listaA, listaB1, caso1)) print(bloque1(listaA, listaB2, caso2)) print(bloque1(listaA, listaB3, caso3))
        Alejandro Ramirez

        Alejandro Ramirez

        student•
        hace 4 años

        SI la variable X es continua y nos preguntamos por P(X=x), esto necesiamente deberia ser 0, o estoy equivocado? lo pregunto porque en los retos aparece que P(X=4)>0

        donde X tiene distribucion normal

          Sebastian Garcia Andrade

          Sebastian Garcia Andrade

          student•
          hace 4 años

          Hola,

          efectivamente, si una variables es contínua no se puede calcular la probabilidad de un evento específico como P(x).

          En el reto, cuando dicen P(X=4), se refieren directamente a la probabilidad acumulada es decir la probabilidad de que X sea menor a 4.

          Fernando Jesús Núñez Valdez

          Fernando Jesús Núñez Valdez

          student•
          hace 4 años

          Thx, tenia esa misma duda!

        Fabián Vega Alcota

        Fabián Vega Alcota

        student•
        hace 5 años

        Segunda parte :D

        Distribuciones de probabilidad

        I) Ejercicios (bloque 1)

        1. P(3,12;0.5) = 220*0.5^12 = 0.054
        2. C(5, 10; 0.5) = 0.6221
        3. C(5, 10; 0.5) = 0.6221
          Nelson Ricardo Ramírez García

          Nelson Ricardo Ramírez García

          student•
          hace 2 años

          El resultado del ejercicio 3 está errado. Se repiten los mismos valores.

        Jesús Andrés Miranda Roa

        Jesús Andrés Miranda Roa

        student•
        hace 5 años

        En las distribuciones (bloque 2) sin alterar el codigo escrito por el profesor el incoveniente es obtener los datos originales para ello lo resolvi de esta manera:

        from scipy.stats import norm # obtener los valores originales arr = np.repeat(values,dist) # distribucion teorica mu = arr.mean() sigma = arr.std() dist_t = norm(mu, sigma) x = np.arange(30,70,0.1) y = [dist_t.pdf(value) for value in x] plt.plot(x, y) # datos plt.bar(values, dist/len(arr)) plt.show()
          Yonatan Efraín Jara Boza

          Yonatan Efraín Jara Boza

          student•
          hace 3 años

          Justo esa funcion de numpy repeat es lo pensaba que quería que existiese, lo hice con 2 ciclos for. Compañero, eso lo sabías por experiencia o buscaste en una lista de metodos?

        Jaime Escobedo Vargas

        Jaime Escobedo Vargas

        student•
        hace 5 años

        Bloque 1

        1. $P(A|B) = ?$
        • Tomamos en cuenta los posibles resultados de un dado que son {1,2,3,4,5,6}. O sea que si preguntamos ¿Cual es la probabilidad de que caiga 6? P(A)=1/6

        • Ya que dentro de los 6 posibles resultados solo tenemos 1 seis. Pero la condicion B restinge el espacio muestral a solo los numero pares que son: {2,4,6}. Asi que si preguntamos ¿Cual es la probabilidad de que caiga un 6 dado que tenemos numeros pares?.

        P(A|B)= 1/3

        • Ya que con la nueva delimitacion del espacio muestral por la nueva condición, restringimos nuestros posibles resultados a 3 y dentro de estos resultados solo tenemos 1 seis. El hecho de que ocurriera B aumentó las probabilidades de que ocurriera A. Por lo tanto estos eventos estan positivamente correlacionados.
        1. P(A|C) = ?
        • En este caso tenemo una probabilidad de que caiga 6 en un espacio muesstral delimitado solo por impares, asi que la probabilidad de que caiga un 6 es nula
        1. $P(B|C) = ?$
        • Aqui pasa lo mismo que en el anterior. Estos dos ultimos ejemplos son eventos excluyentes pero no independientes, y estan negativamente correlacionados ya que la ocurrencia de C disminuyó la de A.
        César Gabriel Carrasco Mejía

        César Gabriel Carrasco Mejía

        student•
        hace 5 años

        Mi solución del primer reto: Bloque I:

        1. P(A|B)=1/3
        2. P(A|C)=0
        3. P(B|C)=0

        Bloque II

        1. P(A|B)=1/2
        2. P(A|B)=1/2
        3. P(A|B)=1/3

        Bloque III

        1. P(m1=cara,m2=sello) = (1/2)*(1/2) = 1/4
        2. P(m1=cara|m2=sello) = 1/2 (eventos excluyentes)
        3. P(m2=sello) = 1/2
        Valenttina Cardozo

        Valenttina Cardozo

        student•
        hace 5 años

        Ejercicios de distribución de probabilidad discreta Mi solución al bloque 1, con p = 0.5:

        1. Probabilidad de obtener 3 caras a partir de 12 lanzamientos de moneda = 0.053

        2. Probabilidad de obtener 5 o menos caras a partir de 10 lanzamientos de moneda = 0.387

        3. Probabilidad de obtener menos de 6 caras a partir de 10 lanzamientos de moneda = 0.387 (es el mismo problema 2)

          Braulio Alberto Bueno Pabon

          Braulio Alberto Bueno Pabon

          student•
          hace 5 años

          Legue a obtener manualmente los mismos resultados que Valentina, sin embargo, me queda la duda en el ejemplo 2 del bloque 1.

          ¿Porque usando Colab no llego al mismo resultado.en el segundo ejemplo?

          Veamos: En el ejemplo de esta clase “Usando la distribución binomial” obtuvimos el mismo resultado al utilizar Spicy o la formula binomial. Aqui el codigo para ese ejemplo

          print(my_binomial(2,3,0.5)) dist = binom(3, 0.5) dist.pmf(2) 0.375

          Ahora bien, si lo aplicamos para el ejemplo del primer punto del bloque 1 el resultado es correcto, observen a continuación:

          "Probabilidad de obtener 3 caras a partir de 12 lanzamientos de moneda" print(my_binomial(3,12,0.5)) print('\nProbabilidad usando Spicy') dist = binom(12, 0.5) dist.pmf(3) El resultado es 0.0537109375 Probabilidad usando Spicy 0.05371093749999999

          En cambio, en el segundo ejemplo no se obtiene el mismo resultado

          " Probabilidad de obtener 5 o menos caras a partir de 12 lanzamientos de moneda." print(my_binomial(5,12,0.5)) print('\nProbabilidad usando Spicy') dist = binom(12, 0.5) dist.pmf(5) "El resultado que se obtiene es usando la bynomial" 0.193359375 "Probabilidad usando Spicy" 0.19335937499999992

          ¿Alguien podria explicarme por que la diferencia?

        Camilo Velasquez

        Camilo Velasquez

        student•
        hace 5 años

        Aquí algunas de mis respuestas. Pero antes, si ven algo mal, porfavor corríjanme, estoy también aprendiendo. :)

        Lecturas 3-4-5 Ejercicio 1

        1. 𝑃(𝐴|𝐵)=1/3
        2. 𝑃(𝐴|𝐶)=0/3 3.𝑃(𝐵|𝐶)=0/3

        Ejercicio 2

        1. 𝑃(𝐴|𝐵) = 3/6 = 1/2 con B = { 2,4,6,8,10,12 }
        2. 𝑃(𝐴|𝐵) = 3/6 = 1/2 con B = { 1,3,5,7,9,11 }
        3. 𝑃(𝐴|𝐵) = 2/6 = 1/3 con B = { 5,6,7,8,9,10 }

        Ejercicio 3 Espacio Muestral (m1=cara, m2=cara ; m1=cara, m2=sello ; m1=sello, m2=cara ; m1=sello m2=sello) = 4 posibilidades de combinación

        1. 𝑃(𝑚1=cara,𝑚2=sello) = 1/4
        2. 𝑃(𝑚1=cara|𝑚2=sello) = 1/2
        3. 𝑃(𝑚2=sello) = 2/4 = 1/2

        Lecturas 6-7-8

        Ejercicio 1

        1. Probabilidad de obtener 3 caras a partir de 12 lanzamientos de moneda. = 0.0537
        2. Probabilidad de obtener 5 o menos caras a partir de 10 lanzamientos de moneda. = 0.6221
        3. Probabilidad de obtener menos de 6 caras a partir de 10 lanzamientos de moneda. = 0.6221

        Hecho con el código que nos dan en la guía:

        import numpy as np from numpy.random import binomial from scipy.stats import binom from math import factorial # definición de la distribución binomial def my_binomial(k, n, p): return factorial(n)/(factorial(k)*(factorial(n-k)))*pow(p,k)*pow(1-p, n-k) # Probabilidad de obtener 3 caras a partir de 12 lanzamientos de moneda. print(f' probabilidad de 3 caras con 12 lanzamientos y 0.5 es {my_binomial(3, 12, 0.5)}') print(f' probabilidad de 3 caras con 12 lanzamientos y 0.3 es {my_binomial(3, 12, 0.3)}') # Probabilidad de obtener 5 o menos caras a partir de 10 lanzamientos de moneda. total = 0 for n in range (6): total += my_binomial(n, 10, 0.5) print(f'La probabilidad de 5 caras o menos con 10 lanzamientos es {total}') total1 = 0 for n in range (6): total1 += my_binomial(n, 10, 0.3) print(f'La probabilidad de 5 caras o menos con 0.3 y 10 lanzamientos es y {total1}') # Probabilidad de obtener menos de 6 caras a partir de 10 lanzamientos de moneda. total = 0 for n in range (6): total += my_binomial(n, 10, 0.5) print(f'La probabilidad de menos de 6 caras con 10 lanzamientos es {total}') total1 = 0 for n in range (6): total1 += my_binomial(n, 10, 0.3) print(f'La probabilidad de menos de 6 caras con 0.3 y 10 lanzamientos es {total1}')
        Jaime Eduardo González Meléndez

        Jaime Eduardo González Meléndez

        student•
        hace 4 años

        Hola, dejo aquí unos videos que hice como ejemplos sobre Distribución Binomial, por si sirven a alguien: Ejemplo 1 Ejemplo 2