No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Bootstrapping

15/37
Recursos

¿Qué es el Bootstrapping en inferencia estadística?

Bootstrapping, una herramienta no paramétrica en estadística, permite realizar inferencias más robustas tanto en modelos paramétricos como no paramétricos. Esta técnica es especialmente valiosa cuando existen dudas sobre los supuestos distributivos de nuestros modelos, ya que no se apoya en dichos supuestos para funcionar.

¿Cómo funciona el Bootstrapping?

La esencia del Bootstrapping radica en tomar una muestra aleatoria de una población, y de esta muestra, obtener múltiples submuestras. Este proceso de remuestreo es lo que nos permite construir un conjunto de estimadores que simulan ser una muestra aleatoria. Este conjunto de estimadores es fundamental para crear intervalos de confianza más precisos.

Proceso de remuestreo

  1. Obtener una muestra aleatoria inicial: Se parte de una población de la cual se extrae una muestra aleatoria representativa.
  2. Generar submuestras: A partir de esta muestra, se crean múltiples submuestras, lo que equivaldría a tomar muestras aleatorias dentro de la muestra original.
  3. Calcular estimadores: Para cada submuestra se calcula un estimador, ya sea media muestral, desviación estándar, u otro.
  4. Formar una nube de estimadores: Estos estimadores permiten formar una 'nube' alrededor del parámetro de interés, como una media con su desviación estándar.
  5. Construcción de intervalos de confianza: Utilizando funciones de cuantil, se pueden definir intervalos de confianza, como un 90% (5% al 95%) o un 95% (2.5% al 97.5%).

¿Por qué es útil el Bootstrapping?

El método de Bootstrapping es particularmente útil en contextos donde las distribuciones teóricas no se cumplen estrictamente o se desconocen. Esto permite una flexibilidad y adaptabilidad significativa al aplicar modelos estadísticos, ofreciendo estimaciones más confiables sin supuestos distribucionales estrictos.

¿Cómo se obtienen los intervalos de confianza con Bootstrapping?

Al generar múltiples instancias de estimadores a partir del remuestreo, Bootstrapping habilita la creación de intervalos de confianza que reflejan mejor la variabilidad y el comportamiento de los datos observados.

Construcción de intervalos

  1. Recolección de estimadores: Se recolectan los valores calculados a partir de cada submuestra.
  2. Determinación de cuartiles: Se utilizan los cuartiles de esta distribución de estimadores para definir los límites inferior y superior del intervalo de confianza.
  3. Evaluación de distribución: Se asegura de que el conjunto de estos estimadores se comporta como una muestra aleatoria, desde la cual se puede calcular un promedio y un intervalo de confianza.

El Bootstrapping ofrece una forma efectiva de evaluar la incertidumbre en las estimaciones estadísticas, garantizando que las inferencias no dependan estrictamente de asunciones teóricas. Esto lo convierte en una herramienta invaluable para análisis estadísticos modernos.

La importancia de Bootstrapping en modelos no paramétricos

Esta técnica es un recurso poderoso en situaciones donde los modelos estadísticos tradicionales se ven desafiados por la falta de datos o conocimiento claro de las distribuciones subyacentes. Al eliminar la dependencia de supuestos teóricos, el Bootstrapping proporciona flexibilidad y precisión en la estimación de parámetros y predicción de resultados.

Aplicaciones clave

  • Modelos con supuestos distribucionales desconocidos o insuficientemente robustos.
  • Situaciones de datos limitados donde la distribución teórica no es evidente.
  • Evaluación de la precisión en estimadores derivados de muestras pequeñas o heterogéneas.

El Bootstrapping se consolida así como una herramienta estadística crítica, proveyendo métodos confiables y robustos para hacer inferencias en diversas circunstancias. Al permitir múltiples iteraciones de muestreo dentro de una muestra, habilita un entendimiento más profundo de los datos y mejora la solidez de las predicciones estadísticas. Continúa explorando estos métodos y asegúrate de profundizar tus conocimientos en el apasionante mundo de la estadística avanzada.

Aportes 11

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Este concepto de bootstrapping me parecía similar al cross-validation. Efectivamente, bootstrapping es una generalazición de cross-validation:https://online.stat.psu.edu/stat555/node/119/

https://www.youtube.com/watch?v=wS0YvDC65nc

Si el Dr. E. Brown, no pudo, yo tampoco que soy un simple mortal 😛

Bradley Efron habla del metodo que él impulsó, el Bootstrapping:
https://www.youtube.com/watch?v=Cx5pgZCdDGM

El bootstrapping en estadística y probabilidad es una técnica que se utiliza para estimar la incertidumbre de una medida estadística mediante la generación de muestras ficticias a partir de los datos originales.

Supongamos que estás interesado en conocer la altura promedio de los estudiantes de una escuela. Sin embargo, no puedes medir a todos los estudiantes, así que tomas una muestra de 100 estudiantes y registras sus alturas.

En lugar de hacer suposiciones complicadas sobre cómo se distribuyen las alturas en toda la población de estudiantes, decides utilizar el bootstrapping para obtener una estimación de la incertidumbre en la altura promedio.

Aquí está el proceso del bootstrapping:

Tienes tu muestra de 100 alturas de los estudiantes.
Ahora, generas muestras ficticias a partir de tu muestra original. Esto significa que seleccionas aleatoriamente una altura de tu muestra y la vuelves a colocar en una nueva muestra ficticia. Repites este proceso muchas veces (digamos 1,000 veces) para obtener 1,000 muestras ficticias.
Para cada una de las 1,000 muestras ficticias, calculas la altura promedio.
Al finalizar, tendrás 1,000 estimaciones de la altura promedio.
A partir de estas estimaciones, puedes calcular un intervalo de confianza para la altura promedio. Por ejemplo, puedes decir que existe un 95% de confianza de que la altura promedio real de todos los estudiantes está dentro de ese intervalo.
El bootstrapping te proporciona una manera de obtener una estimación más precisa de la altura promedio y de comprender la incertidumbre asociada a esa estimación, sin hacer suposiciones complicadas sobre la distribución de las alturas en la población completa.

Bootstrapping uses the observed data to simulate resampling from the population. This produces a large number of bootstrap resamples. We can calculate a statistic for each bootstrap resample and use the distribution of the simulated statistics to approximate characteristics of the population. This video lays the foundation for later bootstrap video series.

● Una muestra aleatoria de una muestra
aleatoria es una muestra aleatoria.
● Las estimaciones de submuestras son
una muestra aleatoria del estimador.
● Es posible usar esta muestra para tener
un intervalo de confianza.

![](https://static.platzi.com/media/user_upload/image-6578b6fc-8146-49f2-8cd2-2332dfb9f272.jpg) ### Aplicaciones: * **Estimación de intervalos de confianza**: Proporcionar una idea de la incertidumbre de una estimación sin asumir normalidad en la distribución. * **Pruebas de hipótesis**: Verificar hipótesis estadísticas cuando los supuestos clásicos no se cumplen. * **Machine learning**: Utilizado en métodos como el *bagging*, que incluye algoritmos como *Random Forest*.

Explicación de la finalidad del Bootstrapping.

¿Qué es el Bootstrapping?
Aquí les dejo unos videos donde lo explican de forma detallada y amena.
Ejemplos de código en R y todo:

https://www.youtube.com/watch?v=QWJHPwGblXI

https://www.youtube.com/watch?v=OQiW1mCCWPY&t=900s

Especialmente útil
cuando un modelo
paramétrico no cumple
los supuestos