- 1

Inferencia Estadística: Fundamentos y Aplicaciones con Simulación en R
02:59 - 2

Valor Esperado Condicional en Ciencia de Datos
07:53 - 3

Poblaciones y Muestras: Conceptos y Generalización Estadística
03:51 - 4
Muestreo Probabilístico y No Probabilístico: Métodos y Aplicaciones
05:40 - 5

Estimadores y Parámetros en Ciencia de Datos
04:49 - 6

Estimación Paramétrica y No Paramétrica en Ciencia de Datos
04:16 - 7

Gráficos y Espacio de Parámetros en Modelos Estadísticos
04:35 - 8

Estimadores Puntuales y su Comportamiento Aleatorio
04:56 - 9

Intervalos de Confianza: Cálculo y Significado en Estadística
05:36 - 10

Tamaño Muestral y su Impacto en la Precisión Estadística
08:44 - 11

Sesgo y Varianza en Ciencia de Datos: Precisión y Exactitud
07:52 - 12

Teoría No Paramétrica: Estimación y Modelos Aplicados
04:48 - 13

Estimación Funcional: Kernel y Funciones de Densidad Acumulada
05:34 - 14

Estimación Funcional del Valor Esperado Condicional
03:21 - 15

Inferencia Estadística con Bootstrapping para Modelos Paramétricos
04:48 - 16

Validación Cruzada y Generalización de Modelos Estadísticos
04:50 - 17
Pruebas de Hipótesis: Conceptos y Aplicaciones Estadísticas
07:07 - 18

Pruebas de Hipótesis: P Valor y Significancia Estadística
02:43
Teoría No Paramétrica: Estimación y Modelos Aplicados
Clase 12 de 37 • Curso de Estadística Inferencial con R
Contenido del curso
- 19

Simulación de Datos con R: Teoría a la Práctica
05:30 - 20
Instalación de R y RStudio en Windows, macOS y Ubuntu
01:47 - 21

Simulación de Datos en R: Distribuciones y Modelos Lineales
12:18 - 22

Simulación de Estimación de Parámetros usando R
11:21 - 23

Simulación de Intervalos de Confianza para Poblaciones Normales
08:07 - 24

Simulación de Convergencia de Estimadores con Diferentes Tamaños Muestrales
10:41 - 25

Estimación Kernel y Distribución Acumulada Empírica
11:37 - 26

Estimación Condicional con Redes Neuronales en R
10:10 - 27

Estimación Kernel: Aplicación en Distribución Uniforme y Normal
07:34 - 28

Boostrapping en R para Regresión Lineal: Implementación y Análisis
19:25 - 29

Validación cruzada en redes neuronales usando R
16:32 - 30

Simulación de Potencia en Pruebas de Hipótesis con R
13:59
- 31

Análisis Estadístico del Examen Saber Once con R
08:02 - 32

Estimación de Intervalos de Confianza para Comparar Poblaciones con y sin Internet
16:22 - 33

Pronóstico de Puntaje en Matemáticas con Redes Neuronales
09:59 - 34

Generalización de Redes Neuronales a Poblaciones Completas
10:06 - 35

Análisis de Tamaño Muestral Óptimo para Redes Neuronales
09:16 - 36

Interpretación de Redes Neuronales en Predicción Educativa
09:46
¿Qué es la teoría no paramétrica?
La teoría no paramétrica se basa en la necesidad de trabajar con datos sin conocer su distribución exacta. Mientras que en la estadística paramétrica se asume que conocemos la distribución de los datos y sus parámetros, en la estadística no paramétrica nos liberamos de estas suposiciones. Esto se debe a que muchas veces no conocemos la distribución subyacente de los datos y debemos buscar métodos alternativos para realizar estimaciones.
¿Qué hacer si no conocemos la distribución de los datos?
Al no conocer la distribución de nuestros datos, se nos presentan dos caminos principales:
- Suponer una distribución conocida: Podemos asumir que nuestros datos siguen una distribución específica (como la normal o la uniforme) y aplicar métodos paramétricos.
- Aplicar métodos no paramétricos: Se busca una nueva perspectiva mediante métodos que no requieren supuestos sobre la distribución de los datos.
¿En qué consisten los métodos no paramétricos?
Los métodos no paramétricos estiman parámetros de dimensión infinita. A diferencia de los métodos paramétricos, que trabajan con parámetros numéricos definidos, los métodos no paramétricos se ubican en el ámbito de la estimación funcional. Esto significa que sus estimadores utilizan la máxima cantidad de información disponible en la muestra, siendo útiles en una variedad de escenarios.
- Versatilidad: Se pueden aplicar en situaciones donde no se conoce la distribución de los datos.
- Manejo de variables diversas: No solo trabajan con variables numéricas sino también con categóricas de tipo ordinal, ampliando su aplicación en diversos contextos de datos.
¿Cómo se comportan las redes neuronales dentro de la teoría no paramétrica?
Aunque las redes neuronales son modelos paramétricos debido a su cantidad definida de parámetros, presentan características que las acercan a los métodos no paramétricos:
- Abundancia de parámetros: Pueden tener un número prácticamente ilimitado de parámetros, lo que les permite comportarse de forma similar a un modelo no paramétrico.
- Flexibilidad: Gracias a su estructura basada en las neuronas artificiales, las redes neuronales son fundamentales en el desarrollo actual de la inteligencia artificial.
Historia de las redes neuronales
Walter Pitts y Warren McCulloch son conocidos como los inventores de la primera neurona artificial. Esta innovación es el fundamento sobre el que se construyen las redes neuronales modernas. Estas actúan como “ladrillos” esenciales de la inteligencia artificial en el mundo actual.
¿Cuáles son ejemplos de estimación no paramétrica?
Existen diversos modelos de estimación no paramétrica, cada uno con un enfoque distinto para manejar los datos:
- Modelos basados en instancias: Por ejemplo, los k-vecinos más cercanos que predicen resultados basados en observaciones próximas.
- Modelos basados en observaciones: Como las máquinas de soporte vectorial que agrupan y separan datos mediante fronteras óptimas.
- Modelos basados en particiones: Los árboles de decisión dividen los datos en subgrupos para una mejor clasificación o regresión.
Procesos de inferencia en modelos no paramétricos
A diferencia de los modelos paramétricos, los no paramétricos no utilizan intervalos de confianza ni pruebas de hipótesis tradicionales. Sus procesos de inferencia son únicos y requieren un enfoque diferente para ser interpretados y aplicados en investigaciones estadísticamente rigurosas.