Regresión Lineal con Estimación de Máxima Verosimilitud en Machine Learning

Clase 12 de 17Curso de Matemáticas para Data Science: Probabilidad

Resumen

¿Qué es la estimación de máxima verosimilitud (MLE)?

La estimación de máxima verosimilitud (MLE) es una poderosa técnica matemática fundamental en machine learning. Sirve para ajustar distribuciones de probabilidad a conjuntos de datos de manera que maximicen la adecuada descripción de estos datos. Ya sea para problemas supervisados, como la clasificación y la regresión, o no supervisados, como la clusterización, MLE se convierte en una herramienta central.

A través de un ejemplo concreto de regresión lineal, podemos entender cómo MLE se convierte en una forma alternativa de abordar los problemas habituales de mínimos cuadrados. Esta equivalencia destaca el poder de la MLE incluso en problemas básicos de machine learning.

¿Cómo se aplica MLE en machine learning?

En machine learning, uno ajusta densidades a datos utilizando distribuciones de probabilidad. Para ilustrar esto usando regresión lineal, la ecuación fundamental de una recta es y = mx + b, donde m es la pendiente y b es el intercepto. En ciencia de datos, estos son referidos como peso y bias respectivamente.

En MLE, se trata de encontrar la probabilidad de que, dados ciertos datos (x), podamos prever el resultado (y) en función de un modelo lineal. Esto se traduce en buscar el máximo de la suma de logaritmos de probabilidades para cada pareja de puntos X,Y de nuestro conjunto de datos usando una hipótesis de modelamiento h, que aquí es una recta.

¿Qué papel juega la distribución gaussiana en MLE?

Un aspecto crucial en la estimación de máxima verosimilitud aplicada a regresión lineal es el supuesto de que el ruido o las desviaciones de los datos siguen una distribución gaussiana (o normal). Esto implica que las diferencias entre los datos reales y la tendencia promedio, representada por nuestra recta, son gaussianamente distribuidas.

La distribución normal permite formular probabilísticamente el modelo bajo la hipótesis de que el error sigue dicha distribución. Al trabajar con MLE, asumimos nuestra "f o p" (función o probabilidad) como gausiana al modelar datos reales versus modelos propuestos.

¿Es MLE equivalente al método de mínimos cuadrados?

Sí, la estimación de máxima verosimilitud es perfectamente equivalente al método de mínimos cuadrados. En el esquema de mínimos cuadrados, calculamos el error como la diferencia entre las predicciones del modelo y los datos reales, elevando este error al cuadrado para minimizar la suma total de estos errores.

Matemáticamente, el proceso de MLE lleva al mismo resultado que el de mínimos cuadrados. Ambas técnicas resultan ser dos caras de la misma moneda, y esto se puede observar cuando se profundiza en los cálculos matemáticos subyacentes. La representación logarítmica de errores en MLE muestra que la maximización de las probabilidades logarítmicas y la minimización de errores cuadráticos son procesos equivalentes.

El entendimiento de esta equivalencia no solo enriquece nuestro conocimiento matemático, sino que también realza la apreciación del valor de los métodos probabilísticos en machine learning. Con ello, queda demostrado que los problemas de machine learning pueden y deben ser considerados desde un punto de vista probabilístico para una comprensión más completa y profunda.