Este concepto de bootstrapping me parecía similar al cross-validation. Efectivamente, bootstrapping es una generalazición de cross-validation:https://online.stat.psu.edu/stat555/node/119/
Teoría
Qué aprenderás y qué es Estadística Inferencial
Valor esperado condicional
Muestras y poblaciones
Muestreo
Estimadores y parámetros
Casos paramétricos y no paramétricos
El espacio de parámetros
Estimación puntual
Estimación por intervalo
Tamaño muestral
Sesgo y varianza
Teoría no paramétrica
Estimación funcional: una sola variable
Estimación funcional: valor esperado condicional
Bootstrapping
Validación cruzada
Introducción a las pruebas de hipótesis
Pruebas de hipótesis
Simulación
Teorías formales
Instalación de R
Explorando datos simulados
Simulando estimadores puntuales
Simulando intervalos de confianza
Observando el comportamiento del tamaño muestral
Estimando distribuciones simuladas
Red neuronal vs. regresión lineal
Examinando el sesgo y la varianza
Haciendo un bootstrapping a un modelo
Hagamos la validación cruzada
Revisemos la potencia de una prueba
Proyecto
Estimación de parámetros con datos reales
Estimación por intervalo de parámetros con datos reales
Red neuronal de pronóstico con datos reales
Validación cruzada de nuestra red neuronal
Calculando el tamaño óptimo de la muestra
Contextualización de la red neuronal
Conclusiones
¿Qué más sigue?
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Bootstrapping, una herramienta no paramétrica en estadística, permite realizar inferencias más robustas tanto en modelos paramétricos como no paramétricos. Esta técnica es especialmente valiosa cuando existen dudas sobre los supuestos distributivos de nuestros modelos, ya que no se apoya en dichos supuestos para funcionar.
La esencia del Bootstrapping radica en tomar una muestra aleatoria de una población, y de esta muestra, obtener múltiples submuestras. Este proceso de remuestreo es lo que nos permite construir un conjunto de estimadores que simulan ser una muestra aleatoria. Este conjunto de estimadores es fundamental para crear intervalos de confianza más precisos.
El método de Bootstrapping es particularmente útil en contextos donde las distribuciones teóricas no se cumplen estrictamente o se desconocen. Esto permite una flexibilidad y adaptabilidad significativa al aplicar modelos estadísticos, ofreciendo estimaciones más confiables sin supuestos distribucionales estrictos.
Al generar múltiples instancias de estimadores a partir del remuestreo, Bootstrapping habilita la creación de intervalos de confianza que reflejan mejor la variabilidad y el comportamiento de los datos observados.
El Bootstrapping ofrece una forma efectiva de evaluar la incertidumbre en las estimaciones estadísticas, garantizando que las inferencias no dependan estrictamente de asunciones teóricas. Esto lo convierte en una herramienta invaluable para análisis estadísticos modernos.
Esta técnica es un recurso poderoso en situaciones donde los modelos estadísticos tradicionales se ven desafiados por la falta de datos o conocimiento claro de las distribuciones subyacentes. Al eliminar la dependencia de supuestos teóricos, el Bootstrapping proporciona flexibilidad y precisión en la estimación de parámetros y predicción de resultados.
El Bootstrapping se consolida así como una herramienta estadística crítica, proveyendo métodos confiables y robustos para hacer inferencias en diversas circunstancias. Al permitir múltiples iteraciones de muestreo dentro de una muestra, habilita un entendimiento más profundo de los datos y mejora la solidez de las predicciones estadísticas. Continúa explorando estos métodos y asegúrate de profundizar tus conocimientos en el apasionante mundo de la estadística avanzada.
Aportes 11
Preguntas 0
Este concepto de bootstrapping me parecía similar al cross-validation. Efectivamente, bootstrapping es una generalazición de cross-validation:https://online.stat.psu.edu/stat555/node/119/
Si el Dr. E. Brown, no pudo, yo tampoco que soy un simple mortal 😛
Bradley Efron habla del metodo que él impulsó, el Bootstrapping:
https://www.youtube.com/watch?v=Cx5pgZCdDGM
El bootstrapping en estadística y probabilidad es una técnica que se utiliza para estimar la incertidumbre de una medida estadística mediante la generación de muestras ficticias a partir de los datos originales.
Supongamos que estás interesado en conocer la altura promedio de los estudiantes de una escuela. Sin embargo, no puedes medir a todos los estudiantes, así que tomas una muestra de 100 estudiantes y registras sus alturas.
En lugar de hacer suposiciones complicadas sobre cómo se distribuyen las alturas en toda la población de estudiantes, decides utilizar el bootstrapping para obtener una estimación de la incertidumbre en la altura promedio.
Aquí está el proceso del bootstrapping:
Tienes tu muestra de 100 alturas de los estudiantes.
Ahora, generas muestras ficticias a partir de tu muestra original. Esto significa que seleccionas aleatoriamente una altura de tu muestra y la vuelves a colocar en una nueva muestra ficticia. Repites este proceso muchas veces (digamos 1,000 veces) para obtener 1,000 muestras ficticias.
Para cada una de las 1,000 muestras ficticias, calculas la altura promedio.
Al finalizar, tendrás 1,000 estimaciones de la altura promedio.
A partir de estas estimaciones, puedes calcular un intervalo de confianza para la altura promedio. Por ejemplo, puedes decir que existe un 95% de confianza de que la altura promedio real de todos los estudiantes está dentro de ese intervalo.
El bootstrapping te proporciona una manera de obtener una estimación más precisa de la altura promedio y de comprender la incertidumbre asociada a esa estimación, sin hacer suposiciones complicadas sobre la distribución de las alturas en la población completa.
Bootstrapping uses the observed data to simulate resampling from the population. This produces a large number of bootstrap resamples. We can calculate a statistic for each bootstrap resample and use the distribution of the simulated statistics to approximate characteristics of the population. This video lays the foundation for later bootstrap video series.
● Una muestra aleatoria de una muestra
aleatoria es una muestra aleatoria.
● Las estimaciones de submuestras son
una muestra aleatoria del estimador.
● Es posible usar esta muestra para tener
un intervalo de confianza.
Explicación de la finalidad del Bootstrapping.
mi ejemplo con R: https://rpubs.com/Ivan_rey/iris
¿Qué es el Bootstrapping?
Aquí les dejo unos videos donde lo explican de forma detallada y amena.
Ejemplos de código en R y todo:
Especialmente útil
cuando un modelo
paramétrico no cumple
los supuestos
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?