- 1

Inferencia Estadística: Fundamentos y Aplicaciones con Simulación en R
02:59 - 2

Valor Esperado Condicional en Ciencia de Datos
07:53 - 3

Poblaciones y Muestras: Conceptos y Generalización Estadística
03:51 - 4
Muestreo Probabilístico y No Probabilístico: Métodos y Aplicaciones
05:40 - 5

Estimadores y Parámetros en Ciencia de Datos
04:49 - 6

Estimación Paramétrica y No Paramétrica en Ciencia de Datos
04:16 - 7

Gráficos y Espacio de Parámetros en Modelos Estadísticos
04:35 - 8

Estimadores Puntuales y su Comportamiento Aleatorio
04:56 - 9

Intervalos de Confianza: Cálculo y Significado en Estadística
05:36 - 10

Tamaño Muestral y su Impacto en la Precisión Estadística
08:44 - 11

Sesgo y Varianza en Ciencia de Datos: Precisión y Exactitud
07:52 - 12

Teoría No Paramétrica: Estimación y Modelos Aplicados
04:48 - 13

Estimación Funcional: Kernel y Funciones de Densidad Acumulada
05:34 - 14

Estimación Funcional del Valor Esperado Condicional
03:21 - 15

Inferencia Estadística con Bootstrapping para Modelos Paramétricos
04:48 - 16

Validación Cruzada y Generalización de Modelos Estadísticos
04:50 - 17
Pruebas de Hipótesis: Conceptos y Aplicaciones Estadísticas
07:07 - 18

Pruebas de Hipótesis: P Valor y Significancia Estadística
02:43
Pronóstico de Puntaje en Matemáticas con Redes Neuronales
Clase 33 de 37 • Curso de Estadística Inferencial con R
Contenido del curso
- 19

Simulación de Datos con R: Teoría a la Práctica
05:30 - 20
Instalación de R y RStudio en Windows, macOS y Ubuntu
01:47 - 21

Simulación de Datos en R: Distribuciones y Modelos Lineales
12:18 - 22

Simulación de Estimación de Parámetros usando R
11:21 - 23

Simulación de Intervalos de Confianza para Poblaciones Normales
08:07 - 24

Simulación de Convergencia de Estimadores con Diferentes Tamaños Muestrales
10:41 - 25

Estimación Kernel y Distribución Acumulada Empírica
11:37 - 26

Estimación Condicional con Redes Neuronales en R
10:10 - 27

Estimación Kernel: Aplicación en Distribución Uniforme y Normal
07:34 - 28

Boostrapping en R para Regresión Lineal: Implementación y Análisis
19:25 - 29

Validación cruzada en redes neuronales usando R
16:32 - 30

Simulación de Potencia en Pruebas de Hipótesis con R
13:59
- 31

Análisis Estadístico del Examen Saber Once con R
08:02 - 32

Estimación de Intervalos de Confianza para Comparar Poblaciones con y sin Internet
16:22 - 33

Pronóstico de Puntaje en Matemáticas con Redes Neuronales
09:59 - 34

Generalización de Redes Neuronales a Poblaciones Completas
10:06 - 35

Análisis de Tamaño Muestral Óptimo para Redes Neuronales
09:16 - 36

Interpretación de Redes Neuronales en Predicción Educativa
09:46
¿Cómo ajustar una red neuronal con datos reales?
En el emocionante mundo del aprendizaje de máquinas, las redes neuronales juegan un papel crucial al predecir resultados basados en datos. Pero, ¿cómo empezamos a trabajar con ellas usando datos reales? Acompáñame a descubrirlo a través del siguiente análisis que utilizará una muestra para predecir el puntaje en matemáticas usando variables socioeconómicas.
¿Qué librerías se usaron en el experimento?
Para construir nuestra red neuronal, se utilizaron las librerías saber y nnet en R. Estas herramientas son esenciales para manejar los datos y construir modelos de redes neuronales de manera efectiva. Aquí tienes cómo invocarlas en tu entorno de programación:
library(saber)
library(nnet)
¿Cuáles fueron las variables y el tamaño de la muestra?
Se seleccionó un tamaño muestral de 2000 observaciones. Las variables utilizadas son principalmente socioeconómicas, proporcionando información sobre el hogar del estudiante:
- Cantidad de personas en el hogar
- Número de cuartos
- Poseer lavadora, nevera, horno, DVD, microondas, y automóvil
También se consideraron, aunque no utilizadas en este ejercicio específico, variables tecnológicas como tener Internet o un teléfono móvil. Esto abre la posibilidad de integrar otros tipos de datos en futuras modelizaciones.
¿Cómo se gestionó la muestra?
El proceso de selección de la muestra se implementó mediante un vector lógico, lo cual ayuda a identificar las filas que formarán parte de esta muestra aleatoria. Aquí se muestra el enfoque utilizado:
indices_muestra <- seq_len(nrow(datos)) %in% sample(seq_len(nrow(datos)), size = tamano_muestra)
muestra <- datos[indices_muestra, variables]
Crear una muestra utilizando índices lógicos permite mantener solo las observaciones necesarias y facilita el análisis posterior al reducir el conjunto de datos a un tamaño manejable.
¿Cómo se contruyó la red neuronal?
Llegó el momento de crear la red neuronal. Utilizando nnet, se estableció un modelo para pronosticar el puntaje de matemáticas como respuesta, utilizando las variables seleccionadas previamente:
red_neuronal <- nnet(puntaje_matematicas ~ ., data = muestra, size = 10, linout = TRUE, trace = TRUE)
Aquí, size especifica el número de neuronas en la capa oculta, y linout = TRUE indica que se desea una salida lineal.
¿Qué resultados se obtuvieron y cómo se visualizaron?
Al graficar los resultados, se busca que las predicciones estén alineadas con los valores reales del puntaje en matemáticas. Se utilizó el siguiente código para visualizarlo:
plot(muestra$puntaje_matematicas, predict(red_neuronal, muestra), col = 2, lwd = 2)
abline(0, 1)
Aunque los resultados muestran grados de dispersión y cierta desviación, el gráfico revela si el modelo está haciendo un trabajo razonablemente preciso al predecir los resultados esperados.
¿Cómo mejorar la predicción del modelo?
La red neuronal construida puede beneficiarse de un proceso de optimización. La clave está en explorar a fondo la base de datos y detectar las variables que tengan una alta correlación con el puntaje de matemáticas. Podrían incluirse:
- Puntajes de otras asignaturas (como física)
- Características del colegio
La exploración y análisis minucioso de estas variables pueden mejorar significativamente las predicciones futuras, haciendo hincapié en aquellas que reflejen un impacto más significativo sobre el desempeño académico.
Recuerda, el camino del aprendizaje automático es un proceso continuo de experimentación y optimización. Sigue explorando, analizando y ajustando tu modelo para obtener los mejores resultados posibles. ¡La aventura acaba de comenzar!