¿Por qué esta ecuación corresponde a la pendiente de la recta? Σ(x-_x̄)(y-y¯)/ Σ(x-_x̄)^2 No entiendo la intuición detrás de esto

LAURA GONZALEZ GAITAN

LAURA GONZALEZ GAITAN

Pregunta
studenthace 4 años

¿Por qué esta ecuación corresponde a la pendiente de la recta? Σ(x-_x̄)(y-y¯)/ Σ(x-_x̄)^2 No entiendo la intuición detrás de esto

6 respuestas
para escribir tu comentario
    David Silva Apango

    David Silva Apango

    studenthace 4 años

    El objetivo de la regresión lineal es obtener la recta más cercana a todos los datos obtenidos. Para eso necesitamos la media de cada coordenada. El objetivo de la ecuación grande que escribiste se usa para obtener la pendiente. Voy a denotar a las medias con negrita.

    x-x indica la distancia que tiene un punto con la media en el eje x. y-y indica la distancia que tiene un punto con la media en el eje y.

    Cuando multiplicas (x-x)(y-y) obtienes la covarianza que muestra que tanto varían las x's con las y's. Siguiendo las leyes de multiplicación de los signos puedes saber si tienen una correlacion positiva (la linea va hacia arriba) o una negativa (la linea va hacia abajo), esto es importante para conocer la pendiente o dirección de la linea.

    (x-x)^2 también puede ser escrito como (x-x)(x-x) es la varianza. Si multiplicas la distancia de un punto con la media consigo misma puedes saber que tanto se dispersan los puntos, si la varianza es mayor, mas dispersos estan los datos.

    Como un modo para simplificar la ecuación grande, si multiplicas x por y, y divides entre x^2 obtienes:

    xy/x^2 = y/x = m (m es la pendiente)

    ó

    m = (x - x_0)/(y - y_0) (Posiblemente hayas visto esta ecuación)

    Esta es la ecuación para sacar la pendiente . Sólo que para obtener la recta más cercana a todos los puntos debes tener en cuenta la dispersión o la distancia de los puntos con la media.

    Edgar Andrés Montenegro Martínez

    Edgar Andrés Montenegro Martínez

    studenthace 4 años

    Es mas esa ecuacion esta formalmente definida como la Covarianza(x,y) sobre la Varianza(x), y la manera mas resumida de hallar ese coeficiente es usando las funciones de numpy:

    Selección_007.png

    Edgar Andrés Montenegro Martínez

    Edgar Andrés Montenegro Martínez

    studenthace 4 años

    Hola Laura, prácticamente esa ecuación aparece de la derivada parcial de una función de coste respecto a los coeficiente que queremos hallar (b_0 y b_1), la que normalmente usamos es la del error cuadrático medio Σ(y-(b_0 + b_1x))^2. De esa forma nos aparecen dos ecuaciones que serian la derivada parcial de la función de error respecto a b_0 y la derivada parcial con respecto b_1. Donde finalmente por teoría de calculo queremos hallar un mínimo por tanto igualamos ambas ecuaciones a 0 o mejor aun, igualas ambas ecuaciones y luego solo despejas el valor de un beta y es hay donde sale la ecuación que preguntas.

    Miguel Angel Velazquez Romero

    Miguel Angel Velazquez Romero

    studenthace 4 años

    Solo que ese que hay que resaltar que el video de DotCSV es para fines divulgativos, en realidad la Explicación Matemática detrás de los Cuadrados Mínimos, no es tan simple como “aplicamos la derivada y ya”.

    Realmente, para optimizar el error de los Cuadrados Mínimos tenemos que aplicar varias técnica de calculo, entre ellas el Jacobiano y El Gradiente, y haciendo algo de algebra es de donde sale la famosa ecuación normal.

    Los invito a que la demuestren, es muy divertido :)

    Jorge Cruz Perez

    Jorge Cruz Perez

    studenthace 4 años

    En los videos no viene explicado, en este aporte hay un enlace con una explicación mas detallada, ya que se entra en conceptos de algebra lineal en el desarrollo de la formula, saludos :)

    Raul Andres Herrera Larrarte

    Raul Andres Herrera Larrarte

    studenthace 4 años

    Te doy una opcion: si entiendo bien, tu ecuación es: Σ(x-_x̄)(y-y¯)/ Σ(x-_x̄)(x-_x̄) = Σ(y-y¯)/ Σ(x-_x̄) Esta última ecuación no tiene exponenciales y se parece a la de una recta.

Curso Práctico de Regresión Lineal con Python

Curso Práctico de Regresión Lineal con Python

La regresión lineal es un algoritmo de aprendizaje supervisado que se utiliza en Machine Learning y estadística. Aprende la lógica detrás de este algoritmo. Usando Python, el lenguaje de programación de alto nivel y de propósito general, podrás programar de manera sencilla un algoritmo de regresión lineal para analizar datos continuos y encontrar patrones. ¡Aprende con Platzi en este curso aplicado!

Curso Práctico de Regresión Lineal con Python
Curso Práctico de Regresión Lineal con Python

Curso Práctico de Regresión Lineal con Python

La regresión lineal es un algoritmo de aprendizaje supervisado que se utiliza en Machine Learning y estadística. Aprende la lógica detrás de este algoritmo. Usando Python, el lenguaje de programación de alto nivel y de propósito general, podrás programar de manera sencilla un algoritmo de regresión lineal para analizar datos continuos y encontrar patrones. ¡Aprende con Platzi en este curso aplicado!