
LAURA GONZALEZ GAITAN
Pregunta¿Por qué esta ecuación corresponde a la pendiente de la recta? Σ(x-_x̄)(y-y¯)/ Σ(x-_x̄)^2 No entiendo la intuición detrás de esto

David Silva Apango
El objetivo de la regresión lineal es obtener la recta más cercana a todos los datos obtenidos. Para eso necesitamos la media de cada coordenada. El objetivo de la ecuación grande que escribiste se usa para obtener la pendiente. Voy a denotar a las medias con negrita.
x-x indica la distancia que tiene un punto con la media en el eje x. y-y indica la distancia que tiene un punto con la media en el eje y.
Cuando multiplicas (x-x)(y-y) obtienes la covarianza que muestra que tanto varían las x's con las y's. Siguiendo las leyes de multiplicación de los signos puedes saber si tienen una correlacion positiva (la linea va hacia arriba) o una negativa (la linea va hacia abajo), esto es importante para conocer la pendiente o dirección de la linea.
(x-x)^2 también puede ser escrito como (x-x)(x-x) es la varianza. Si multiplicas la distancia de un punto con la media consigo misma puedes saber que tanto se dispersan los puntos, si la varianza es mayor, mas dispersos estan los datos.
Como un modo para simplificar la ecuación grande, si multiplicas x por y, y divides entre x^2 obtienes:
xy/x^2 = y/x = m (m es la pendiente)
ó
m = (x - x_0)/(y - y_0) (Posiblemente hayas visto esta ecuación)
Esta es la ecuación para sacar la pendiente . Sólo que para obtener la recta más cercana a todos los puntos debes tener en cuenta la dispersión o la distancia de los puntos con la media.

Edgar Andrés Montenegro Martínez
Es mas esa ecuacion esta formalmente definida como la Covarianza(x,y) sobre la Varianza(x), y la manera mas resumida de hallar ese coeficiente es usando las funciones de numpy:

Edgar Andrés Montenegro Martínez
Hola Laura, prácticamente esa ecuación aparece de la derivada parcial de una función de coste respecto a los coeficiente que queremos hallar (b_0 y b_1), la que normalmente usamos es la del error cuadrático medio Σ(y-(b_0 + b_1x))^2. De esa forma nos aparecen dos ecuaciones que serian la derivada parcial de la función de error respecto a b_0 y la derivada parcial con respecto b_1. Donde finalmente por teoría de calculo queremos hallar un mínimo por tanto igualamos ambas ecuaciones a 0 o mejor aun, igualas ambas ecuaciones y luego solo despejas el valor de un beta y es hay donde sale la ecuación que preguntas.

Miguel Angel Velazquez Romero
Solo que ese que hay que resaltar que el video de DotCSV es para fines divulgativos, en realidad la Explicación Matemática detrás de los Cuadrados Mínimos, no es tan simple como “aplicamos la derivada y ya”.
Realmente, para optimizar el error de los Cuadrados Mínimos tenemos que aplicar varias técnica de calculo, entre ellas el Jacobiano y El Gradiente, y haciendo algo de algebra es de donde sale la famosa ecuación normal.
Los invito a que la demuestren, es muy divertido :)

Jorge Cruz Perez
En los videos no viene explicado, en este aporte hay un enlace con una explicación mas detallada, ya que se entra en conceptos de algebra lineal en el desarrollo de la formula, saludos :)

Raul Andres Herrera Larrarte
Te doy una opcion: si entiendo bien, tu ecuación es: Σ(x-_x̄)(y-y¯)/ Σ(x-_x̄)(x-_x̄) = Σ(y-y¯)/ Σ(x-_x̄) Esta última ecuación no tiene exponenciales y se parece a la de una recta.