- 1

Inferencia Estadística: Fundamentos y Aplicaciones con Simulación en R
02:59 - 2

Valor Esperado Condicional en Ciencia de Datos
07:53 - 3

Poblaciones y Muestras: Conceptos y Generalización Estadística
03:51 - 4
Muestreo Probabilístico y No Probabilístico: Métodos y Aplicaciones
05:40 - 5

Estimadores y Parámetros en Ciencia de Datos
04:49 - 6

Estimación Paramétrica y No Paramétrica en Ciencia de Datos
04:16 - 7

Gráficos y Espacio de Parámetros en Modelos Estadísticos
04:35 - 8

Estimadores Puntuales y su Comportamiento Aleatorio
04:56 - 9

Intervalos de Confianza: Cálculo y Significado en Estadística
05:36 - 10

Tamaño Muestral y su Impacto en la Precisión Estadística
08:44 - 11

Sesgo y Varianza en Ciencia de Datos: Precisión y Exactitud
07:52 - 12

Teoría No Paramétrica: Estimación y Modelos Aplicados
04:48 - 13

Estimación Funcional: Kernel y Funciones de Densidad Acumulada
05:34 - 14

Estimación Funcional del Valor Esperado Condicional
03:21 - 15

Inferencia Estadística con Bootstrapping para Modelos Paramétricos
04:48 - 16

Validación Cruzada y Generalización de Modelos Estadísticos
04:50 - 17
Pruebas de Hipótesis: Conceptos y Aplicaciones Estadísticas
07:07 - 18

Pruebas de Hipótesis: P Valor y Significancia Estadística
02:43
Simulación de Potencia en Pruebas de Hipótesis con R
Clase 30 de 37 • Curso de Estadística Inferencial con R
Contenido del curso
- 19

Simulación de Datos con R: Teoría a la Práctica
05:30 - 20
Instalación de R y RStudio en Windows, macOS y Ubuntu
01:47 - 21

Simulación de Datos en R: Distribuciones y Modelos Lineales
12:18 - 22

Simulación de Estimación de Parámetros usando R
11:21 - 23

Simulación de Intervalos de Confianza para Poblaciones Normales
08:07 - 24

Simulación de Convergencia de Estimadores con Diferentes Tamaños Muestrales
10:41 - 25

Estimación Kernel y Distribución Acumulada Empírica
11:37 - 26

Estimación Condicional con Redes Neuronales en R
10:10 - 27

Estimación Kernel: Aplicación en Distribución Uniforme y Normal
07:34 - 28

Boostrapping en R para Regresión Lineal: Implementación y Análisis
19:25 - 29

Validación cruzada en redes neuronales usando R
16:32 - 30

Simulación de Potencia en Pruebas de Hipótesis con R
13:59
- 31

Análisis Estadístico del Examen Saber Once con R
08:02 - 32

Estimación de Intervalos de Confianza para Comparar Poblaciones con y sin Internet
16:22 - 33

Pronóstico de Puntaje en Matemáticas con Redes Neuronales
09:59 - 34

Generalización de Redes Neuronales a Poblaciones Completas
10:06 - 35

Análisis de Tamaño Muestral Óptimo para Redes Neuronales
09:16 - 36

Interpretación de Redes Neuronales en Predicción Educativa
09:46
¿Qué es la potencia de una prueba de hipótesis?
La potencia de una prueba de hipótesis es una medida crucial en el análisis estadístico, ya que determina la capacidad de la prueba para identificar correctamente cuando una hipótesis alternativa es verdadera. En términos más simples, nos dice qué tan efectivo es nuestro test para reconocer diferencias significativas entre dos conjuntos de datos cuando, en realidad, dichas diferencias existen.
¿Cómo impacta la diferencia entre medias en la potencia?
La capacidad de una prueba de identificar diferencias está influenciada por la magnitud de la diferencia de medias de dos conjuntos de datos. Imagina dos medias que son enormemente distintas: la prueba probablemente las identificará como diferentes con facilidad. Por otro lado, si las medias apenas difieren, la detección se vuelve más compleja.
Para explorar esta interacción entre la potencia y la diferencia de medias, realizamos una serie de simulaciones. Comenzamos alejando gradualmente dos medias para observar en qué momento la prueba de hipótesis logra detectar la diferencia entre ellas.
Simulación con pruebas de Mann-Whitney y T de Student
Para este ejercicio práctico, empleamos dos tipos de pruebas de hipótesis:
- Prueba de Mann-Whitney: Una prueba no paramétrica adecuada para distribuciones que no necesariamente siguen un patrón normal.
- Prueba T de Student: Diseñada específicamente para situaciones donde los datos seguían una distribución normal, pudiendo ser menos potente en otros escenarios.
Pasos en la simulación
-
Configuración Inicial: Establecimos un tamaño muestral de 50, con 80 iteraciones, y definimos un rango de diferencia de medias para observar cómo evoluciona la detección.
-
Iteración del proceso: Por cada diferencia de medias, simulamos conjuntos de datos para ejecutar las pruebas seleccionadas.
-
Cálculo de Potencia: Medimos la proporción de iteraciones donde el valor p fue menor al umbral de significancia (0.05, o más estricto a 0.01). Valores p bajos sugieren que las medias son significativamente diferentes.
Ejecución y resultados en R
El siguiente fragmento de código en R ilustra un proceso básico de simulación para evaluar la potencia de la prueba de Mann-Whitney:
tamaño_muestral <- 50
iteraciones <- 80
media_incial <- 0
media_final <- 3
pasos <- 50
umbral_significancia <- 0.05
potencia_wilcoxon <- c()
for (k in seq_len(pasos)) {
diferencia_media <- seq(media_inicial, media_final, length.out = pasos)[k]
valores_p <- numeric(iteraciones)
for (i in seq_len(iteraciones)) {
x <- rgamma(tamaño_muestral, shape = 1, rate = 1)
y <- rgamma(tamaño_muestral, shape = 1 + diferencia_media, rate = 1)
prueba <- wilcox.test(x, y)
valores_p[i] <- prueba$p.value
}
potencia_wilcoxon[k] <- mean(valores_p < umbral_significancia)
}
plot(seq(media_inicial, media_final, length.out = pasos), potencia_wilcoxon, type = 'l', col = 'blue',
xlab = 'Diferencia de Medias', ylab = 'Potencia', main = 'Potencia de la Prueba de Mann-Whitney')
A través de este ejercicio, descubrimos que la potencia de la prueba, en caso de la Mann-Whitney, incrementa conforme aumenta la diferencia entre las medias, lo que sugiere una correcta identificación de diferencias significativas.
Desempeño de la prueba T de Student
Finalmente, al repetir el análisis para la prueba T de Student encontramos una menor potencia, tal como se anticipaba dada la naturaleza no normal de los datos gamma utilizados. Sin embargo, este resultado sería más visible con gráficos avanzados usando bibliotecas como ggplot2 en combinación con tidyverse para una visualización más enriquecida.
Los estudiantes son alentados a replantear esta experiencia teórica usando datos reales y compartir aprendizajes y resultados para enriquecer su entendimiento de las pruebas de hipótesis. Con la práctica, la teoría se solidifica, así que te invitamos a seguir explorando y experimentando.