4

Regresión Lineal en español con Python

https://www.aprendemachinelearning.com/regresion-lineal-en-espanol-con-python/

¿Qué es la regresión lineal?
La regresión lineal es un algoritmo de aprendizaje supervisado que se utiliza en Machine Learning y en estadística. En su versión más sencilla, lo que haremos es «dibujar una recta» que nos indicará la tendencia de un conjunto de datos continuos (si fueran discretos, utilizaríamos Regresión Logística).

En estadísticas, regresión lineal es una aproximación para modelar la relación entre una variable escalar dependiente «y» y una o mas variables explicativas nombradas con «X».

Recordemos rápidamente la fórmula de la recta:

Y = mX + b

Donde Y es el resultado, X es la variable, m la pendiente (o coeficiente) de la recta y b la constante o también conocida como el «punto de corte con el eje Y» en la gráfica (cuando X=0)

Aqui vemos un ejemplo donde vemos datos recabados sobre los precios de las pizzas en Dinamarca (los puntos en rojo) y la linea negra es la tendencia. Esa es la línea de regresión que buscamos que el algoritmo aprenda y calcule sólo.

¿Cómo funciona el algoritmo de regresión lineal en Machine Learning?

Recordemos que los algoritmos de Machine Learning Supervisados, aprenden por sí mismos y -en este caso- a obtener automáticamente esa «recta» que buscamos con la tendencia de predicción. Para hacerlo se mide el error con respecto a los puntos de entrada y el valor «Y» de salida real. El algoritmo deberá minimizar el coste de una función de error cuadrático y esos coeficientes corresponderán con la recta óptima. Hay diversos métodos para conseguir minimizar el coste. Lo más común es utilizar una versión vectorial y la llamada Ecuación Normal que nos dará un resultado directo.
NOTA: cuando hablo de «recta» es en el caso particular de regresión lineal simple. Si hubiera más variables, hay que generalizar el término.

Hagamos un Ejercicio Práctico
En este ejemplo cargaremos un archivo .csv de entrada obtenido por webscraping que contiene diversas URLs a artículos sobre Machine Learning de algunos sitios muy importantes como Techcrunch o KDnuggets y como características de entrada -las columnas- tendremos:

Title: Titulo del Artículo
url: ruta al artículo
Word count: la cantidad de palabras del artículo,

<h1>of Links: los enlaces externos que contiene,</h1> <h1>of comments: cantidad de comentarios,</h1> <h1>Images video: suma de imágenes (o videos),</h1>

Elapsed days: la cantidad de días transcurridos (al momento de crear el archivo)

<h1>Shares: nuestra columna de salida que será la «cantidad de veces que se compartió el artículo».</h1>

A partir de las características de un artículo de machine learning intentaremos predecir, cuantas veces será compartido en Redes Sociales.

Haremos una primer predicción de regresión lineal simple -con una sola variable predictora- para poder graficar en 2 dimensiones (ejes X e Y) y luego un ejemplo de regresión Lineal Múltiple, en la que utilizaremos 3 dimensiones (X,Y,Z) y predicciones.

NOTA: el archivo .csv contiene mitad de datos reales, y otra mitad los generé de manera aleatoria, por lo que las predicciones que obtendremos no serán reales. Intentaré en el futuro hacer webscrapping de los enlaces que me faltaban y reemplazar los resultados por valores reales.

Requerimientos para hacer el Ejercicio
Para realizar este ejercicio, crearemos una Jupyter notebook con código Python y la librería SkLearn muy utilizada en Data Science. Recomendamos utilizar la suite de Anaconda. Puedes leer este artículo donde muestro paso a paso como instalar el ambiente de desarrollo. Podrás descargar los archivos de entrada csv o visualizar la notebook online (al final del artículo los enlaces).

Predecir cuántas veces será compartido un artículo de Machine Learning.
Regresión lineal simple en Python (con 1 variable)
Aqui vamos con nuestra notebook!

Comencemos por importar las librerías que utilizaremos:

<h1>Imports necesarios</h1>

import numpy as np
import pandas as pd
import seaborn as sb
import matplotlib.pyplot as plt
%matplotlib inline
from mpl_toolkits.mplot3d import Axes3D
from matplotlib import cm
plt.rcParams[‘figure.figsize’] = (16, 9)
plt.style.use(‘ggplot’)
from sklearn import linear_model
from sklearn.metrics import mean_squared_error, r2_score
1
2
3
4
5
6
7
8
9
10
11
12

<h1>Imports necesarios</h1>

import numpy as np
import pandas as pd
import seaborn as sb
import matplotlib.pyplot as plt
%matplotlib inline
from mpl_toolkits.mplot3d import Axes3D
from matplotlib import cm
plt.rcParams[‘figure.figsize’] = (16, 9)
plt.style.use(‘ggplot’)
from sklearn import linear_model
from sklearn.metrics import mean_squared_error, r2_score
Leemos el archivo csv y lo cargamos como un dataset de Pandas. Y vemos su tamaño

#cargamos los datos de entrada
data = pd.read_csv("./articulos_ml.csv")
#veamos cuantas dimensiones y registros contiene
data.shape
1
2
3
4
#cargamos los datos de entrada
data = pd.read_csv("./articulos_ml.csv")
#veamos cuantas dimensiones y registros contiene
data.shape
Nos devuelve (161,8)

Veamos esas primeras filas:

#son 161 registros con 8 columnas. Veamos los primeros registros
data.head()
1
2
#son 161 registros con 8 columnas. Veamos los primeros registros
data.head()

Se ven algunos campos con valores NaN (nulos) por ejemplo algunas urls o en comentarios.

Veamos algunas estadísticas básicas de nuestros datos de entrada:

<h1>Ahora veamos algunas estadísticas de nuestros datos</h1>

data.describe()
1
2

<h1>Ahora veamos algunas estadísticas de nuestros datos</h1>

data.describe()

Aqui vemos que la media de palabras en los artículos es de 1808. El artículo más corto tiene 250 palabras y el más extenso 8401. Intentaremos ver con nuestra relación lineal, si hay una correlación entre la cantidad de palabras del texto y la cantidad de Shares obtenidos.

Hacemos una visualización en general de los datos de entrada:

<h1>Visualizamos rápidamente las caraterísticas de entrada</h1>

data.drop([‘Title’,‘url’, ‘Elapsed days’],1).hist()
plt.show()
1
2
3

<h1>Visualizamos rápidamente las caraterísticas de entrada</h1>

data.drop([‘Title’,‘url’, ‘Elapsed days’],1).hist()
plt.show()

En estas gráficas vemos entre qué valores se concentran la mayoría de registros.

Vamos a filtrar los datos de cantidad de palabras para quedarnos con los registros con menos de 3500 palabras y también con los que tengan Cantidad de compartidos menos a 80.000. Lo gratificaremos pintando en azul los puntos con menos de 1808 palabras (la media) y en naranja los que tengan más.

<h1>Vamos a RECORTAR los datos en la zona donde se concentran más los puntos</h1> <h1>esto es en el eje X: entre 0 y 3.500</h1> <h1>y en el eje Y: entre 0 y 80.000</h1>

filtered_data = data[(data[‘Word count’] <= 3500) & (data[’# Shares’] <= 80000)]

colores=[‘orange’,‘blue’]
tamanios=[30,60]

f1 = filtered_data[‘Word count’].values
f2 = filtered_data[’# Shares’].values

<h1>Vamos a pintar en colores los puntos por debajo y por encima de la media de Cantidad de Palabras</h1>

asignar=[]
for index, row in filtered_data.iterrows():
if(row[‘Word count’]>1808):
asignar.append(colores[0])
else:
asignar.append(colores[1])

plt.scatter(f1, f2, c=asignar, s=tamanios[0])
plt.show()
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

<h1>Vamos a RECORTAR los datos en la zona donde se concentran más los puntos</h1> <h1>esto es en el eje X: entre 0 y 3.500</h1> <h1>y en el eje Y: entre 0 y 80.000</h1>

filtered_data = data[(data[‘Word count’] <= 3500) & (data[’# Shares’] <= 80000)]

colores=[‘orange’,‘blue’]
tamanios=[30,60]

f1 = filtered_data[‘Word count’].values
f2 = filtered_data[’# Shares’].values

<h1>Vamos a pintar en colores los puntos por debajo y por encima de la media de Cantidad de Palabras</h1>

asignar=[]
for index, row in filtered_data.iterrows():
if(row[‘Word count’]>1808):
asignar.append(colores[0])
else:
asignar.append(colores[1])

plt.scatter(f1, f2, c=asignar, s=tamanios[0])
plt.show()

Regresión Lineal con Python y SKLearn
Vamos a crear nuestros datos de entrada por el momento sólo Word Count y como etiquetas los # Shares. Creamos el objeto LinearRegression y lo hacemos «encajar» (entrenar) con el método fit(). Finalmente imprimimos los coeficientes y puntajes obtenidos.

<h1>Asignamos nuestra variable de entrada X para entrenamiento y las etiquetas Y.</h1>

dataX =filtered_data[[“Word count”]]
X_train = np.array(dataX)
y_train = filtered_data[’# Shares’].values

<h1>Creamos el objeto de Regresión Linear</h1>

regr = linear_model.LinearRegression()

<h1>Entrenamos nuestro modelo</h1>

regr.fit(X_train, y_train)

<h1>Hacemos las predicciones que en definitiva una línea (en este caso, al ser 2D)</h1>

y_pred = regr.predict(X_train)

<h1>Veamos los coeficienetes obtenidos, En nuestro caso, serán la Tangente</h1>

print(‘Coefficients: \n’, regr.coef_)

<h1>Este es el valor donde corta el eje Y (en X=0)</h1>

print(‘Independent term: \n’, regr.intercept_)

<h1>Error Cuadrado Medio</h1>

print(“Mean squared error: %.2f” % mean_squared_error(y_train, y_pred))

<h1>Puntaje de Varianza. El mejor puntaje es un 1.0</h1>

print(‘Variance score: %.2f’ % r2_score(y_train, y_pred))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22

<h1>Asignamos nuestra variable de entrada X para entrenamiento y las etiquetas Y.</h1>

dataX =filtered_data[[“Word count”]]
X_train = np.array(dataX)
y_train = filtered_data[’# Shares’].values

<h1>Creamos el objeto de Regresión Linear</h1>

regr = linear_model.LinearRegression()

<h1>Entrenamos nuestro modelo</h1>

regr.fit(X_train, y_train)

<h1>Hacemos las predicciones que en definitiva una línea (en este caso, al ser 2D)</h1>

y_pred = regr.predict(X_train)

<h1>Veamos los coeficienetes obtenidos, En nuestro caso, serán la Tangente</h1>

print(‘Coefficients: \n’, regr.coef_)

<h1>Este es el valor donde corta el eje Y (en X=0)</h1>

print(‘Independent term: \n’, regr.intercept_)

<h1>Error Cuadrado Medio</h1>

print(“Mean squared error: %.2f” % mean_squared_error(y_train, y_pred))

<h1>Puntaje de Varianza. El mejor puntaje es un 1.0</h1>

print(‘Variance score: %.2f’ % r2_score(y_train, y_pred))
<

p style=»padding-left: 30px;»>Coefficients: [5.69765366]
Independent term: 11200.303223074163
Mean squared error: 372888728.34
Variance score: 0.06

De la ecuación de la recta y = mX + b nuestra pendiente «m» es el coeficiente 5,69 y el término independiente «b» es 11200. Tenemos un Error Cuadrático medio enorme… por lo que en realidad este modelo no será muy bueno 😉 Pero estamos aprendiendo a usarlo, que es lo que nos importa ahora 🙂 Esto también se ve reflejado en el puntaje de Varianza que debería ser cercano a 1.0.

Visualicemos la Recta
Veamos la recta que obtuvimos:

Predicción en regresión lineal simple
Vamos a intentar probar nuestro algoritmo, suponiendo que quisiéramos predecir cuántos «compartir» obtendrá un articulo sobre ML de 2000 palabras

#Vamos a comprobar:

<h1>Quiero predecir cuántos “Shares” voy a obtener por un artículo con 2.000 palabras,</h1> <h1>según nuestro modelo, hacemos:</h1>

y_Dosmil = regr.predict([[2000]])
print(int(y_Dosmil))
1
2
3
4
5
#Vamos a comprobar:

<h1>Quiero predecir cuántos “Shares” voy a obtener por un artículo con 2.000 palabras,</h1> <h1>según nuestro modelo, hacemos:</h1>

y_Dosmil = regr.predict([[2000]])
print(int(y_Dosmil))
Nos devuelve una predicción de 22595 «Shares» para un artículo de 2000 palabras (ya quisiera yo!!!).

Regresión Lineal Múltiple en Python
(o «Regresión con Múltiples Variables»)
Vamos a extender el ejercicio utilizando más de una variable de entrada para el modelo. Esto le da mayor poder al algoritmo de Machine Learning, pues de esta manera podremos obtener predicciones más complejas.

Nuestra «ecuación de la Recta», ahora pasa a ser:

Y = b + m1 X1 + m2 X2 + … + m(n) X(n)

y deja de ser una recta)

En nuestro caso, utilizaremos 2 «variables predictivas» para poder graficar en 3D, pero recordar que para mejores predicciones podemos utilizar más de 2 entradas y prescindir del grafico.

Nuestra primer variable seguirá siendo la cantidad de palabras y la segunda variable será la suma de 3 columnas de entrada: la cantidad de enlaces, comentarios y cantidad de imágenes. Vamos a programar!

#Vamos a intentar mejorar el Modelo, con una dimensión más:

<h1>Para poder graficar en 3D, haremos una variable nueva que será la suma de los enlaces, comentarios e imágenes</h1>

suma = (filtered_data["# of Links"] + filtered_data[’# of comments’].fillna(0) + filtered_data[’# Images video’])

dataX2 = pd.DataFrame()
dataX2[“Word count”] = filtered_data[“Word count”]
dataX2[“suma”] = suma
XY_train = np.array(dataX2)
z_train = filtered_data[’# Shares’].values
1
2
3
4
5
6
7
8
9
#Vamos a intentar mejorar el Modelo, con una dimensión más:

<h1>Para poder graficar en 3D, haremos una variable nueva que será la suma de los enlaces, comentarios e imágenes</h1>

suma = (filtered_data["# of Links"] + filtered_data[’# of comments’].fillna(0) + filtered_data[’# Images video’])

dataX2 = pd.DataFrame()
dataX2[“Word count”] = filtered_data[“Word count”]
dataX2[“suma”] = suma
XY_train = np.array(dataX2)
z_train = filtered_data[’# Shares’].values
Nota: hubiera sido mejor aplicar PCA para reducción de dimensiones, manteniendo la información más importante de todas

Ya tenemos nuestras 2 variables de entrada en XY_train y nuestra variable de salida pasa de ser «Y» a ser el eje «Z».

Creamos un nuevo objeto de Regresión lineal con SKLearn pero esta vez tendrá las dos dimensiones que entrenar: las que contiene XY_train. Al igual que antes, imprimimos los coeficientes y puntajes obtenidos:

<h1>Creamos un nuevo objeto de Regresión Lineal</h1>

regr2 = linear_model.LinearRegression()

<h1>Entrenamos el modelo, esta vez, con 2 dimensiones</h1> <h1>obtendremos 2 coeficientes, para graficar un plano</h1>

regr2.fit(XY_train, z_train)

<h1>Hacemos la predicción con la que tendremos puntos sobre el plano hallado</h1>

z_pred = regr2.predict(XY_train)

<h1>Los coeficientes</h1>

print(‘Coefficients: \n’, regr2.coef_)

<h1>Error cuadrático medio</h1>

print(“Mean squared error: %.2f” % mean_squared_error(z_train, z_pred))

<h1>Evaluamos el puntaje de varianza (siendo 1.0 el mejor posible)</h1>

print(‘Variance score: %.2f’ % r2_score(z_train, z_pred))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

<h1>Creamos un nuevo objeto de Regresión Lineal</h1>

regr2 = linear_model.LinearRegression()

<h1>Entrenamos el modelo, esta vez, con 2 dimensiones</h1> <h1>obtendremos 2 coeficientes, para graficar un plano</h1>

regr2.fit(XY_train, z_train)

<h1>Hacemos la predicción con la que tendremos puntos sobre el plano hallado</h1>

z_pred = regr2.predict(XY_train)

<h1>Los coeficientes</h1>

print(‘Coefficients: \n’, regr2.coef_)

<h1>Error cuadrático medio</h1>

print(“Mean squared error: %.2f” % mean_squared_error(z_train, z_pred))

<h1>Evaluamos el puntaje de varianza (siendo 1.0 el mejor posible)</h1>

print(‘Variance score: %.2f’ % r2_score(z_train, z_pred))
<

p style=»padding-left: 30px;»>Coefficients: [ 6.63216324 -483.40753769]
Mean squared error: 352122816.48
Variance score: 0.11

Como vemos, obtenemos 2 coeficientes (cada uno correspondiente a nuestras 2 variables predictivas), pues ahora lo que graficamos no será una linea si no, un plano en 3 Dimensiones.

El error obtenido sigue siendo grande, aunque algo mejor que el anterior y el puntaje de Varianza mejora casi el doble del anterior (aunque sigue siendo muy malo, muy lejos del 1).

Visualizar un plano en 3 Dimensiones en Python
Graficaremos nuestros puntos de las características de entrada en color azul y los puntos proyectados en el plano en rojo. Recordemos que en esta gráfica, el eje Z corresponde a la «altura» y representa la cantidad de Shares que obtendremos.

fig = plt.figure()
ax = Axes3D(fig)

<h1>Creamos una malla, sobre la cual graficaremos el plano</h1>

xx, yy = np.meshgrid(np.linspace(0, 3500, num=10), np.linspace(0, 60, num=10))

<h1>calculamos los valores del plano para los puntos x e y</h1>

nuevoX = (regr2.coef_[0] * xx)
nuevoY = (regr2.coef_[1] * yy)

<h1>calculamos los correspondientes valores para z. Debemos sumar el punto de intercepción</h1>

z = (nuevoX + nuevoY + regr2.intercept_)

<h1>Graficamos el plano</h1>

ax.plot_surface(xx, yy, z, alpha=0.2, cmap=‘hot’)

<h1>Graficamos en azul los puntos en 3D</h1>

ax.scatter(XY_train[:, 0], XY_train[:, 1], z_train, c=‘blue’,s=30)

<h1>Graficamos en rojo, los puntos que</h1>

ax.scatter(XY_train[:, 0], XY_train[:, 1], z_pred, c=‘red’,s=40)

<h1>con esto situamos la “camara” con la que visualizamos</h1>

ax.view_init(elev=30., azim=65)

ax.set_xlabel(‘Cantidad de Palabras’)
ax.set_ylabel(‘Cantidad de Enlaces,Comentarios e Imagenes’)
ax.set_zlabel(‘Compartido en Redes’)
ax.set_title(‘Regresión Lineal con Múltiples Variables’)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
fig = plt.figure()
ax = Axes3D(fig)

<h1>Creamos una malla, sobre la cual graficaremos el plano</h1>

xx, yy = np.meshgrid(np.linspace(0, 3500, num=10), np.linspace(0, 60, num=10))

<h1>calculamos los valores del plano para los puntos x e y</h1>

nuevoX = (regr2.coef_[0] * xx)
nuevoY = (regr2.coef_[1] * yy)

<h1>calculamos los correspondientes valores para z. Debemos sumar el punto de intercepción</h1>

z = (nuevoX + nuevoY + regr2.intercept_)

<h1>Graficamos el plano</h1>

ax.plot_surface(xx, yy, z, alpha=0.2, cmap=‘hot’)

<h1>Graficamos en azul los puntos en 3D</h1>

ax.scatter(XY_train[:, 0], XY_train[:, 1], z_train, c=‘blue’,s=30)

<h1>Graficamos en rojo, los puntos que</h1>

ax.scatter(XY_train[:, 0], XY_train[:, 1], z_pred, c=‘red’,s=40)

<h1>con esto situamos la “camara” con la que visualizamos</h1>

ax.view_init(elev=30., azim=65)

ax.set_xlabel(‘Cantidad de Palabras’)
ax.set_ylabel(‘Cantidad de Enlaces,Comentarios e Imagenes’)
ax.set_zlabel(‘Compartido en Redes’)
ax.set_title(‘Regresión Lineal con Múltiples Variables’)

Podemos rotar el gráfico para apreciar el plano desde diversos ángulos modificando el valor del parámetro azim en view_init con números de 0 a 360.

Predicción con el modelo de Mútiples Variables
Veamos ahora, que predicción tendremos para un artículo de 2000 palabras, con 10 enlaces, 4 comentarios y 6 imágenes.

<h1>Si quiero predecir cuántos “Shares” voy a obtener por un artículo con:</h1> <h1>2000 palabras y con enlaces: 10, comentarios: 4, imagenes: 6</h1> <h1>según nuestro modelo, hacemos:</h1>

z_Dosmil = regr2.predict([[2000, 10+4+6]])
print(int(z_Dosmil))
1
2
3
4
5
6

<h1>Si quiero predecir cuántos “Shares” voy a obtener por un artículo con:</h1> <h1>2000 palabras y con enlaces: 10, comentarios: 4, imagenes: 6</h1> <h1>según nuestro modelo, hacemos:</h1>

z_Dosmil = regr2.predict([[2000, 10+4+6]])
print(int(z_Dosmil))
Esta predicción nos da 20518 y probablemente sea un poco mejor que nuestra predicción anterior con 1 variables.

Conclusion y Mejora de nuestro modelo
Hemos visto cómo utilizar SKLearn en Python para crear modelos de Regresión Lineal con 1 o múltiples variables. En nuestro ejercicio no tuvimos una gran confianza en las predicciónes. Por ejemplo en nuestro primer modelo, con 2000 palabras nos predice que podemos tener 22595 pero el margen de error haciendo raíz del error cuartico medio es más menos 19310. Es decir que escribiendo un artículo de 2000 palabras lo mismo tenemos 3285 Shares que 41905. En este caso usamos este modelo para aprender a usarlo y habrá que ver en otros casos en los que sí nos brinde predicciones acertadas.

Escribe tu comentario
+ 2
4
11043Puntos

Para poder entenderlo, sugiero puedas dar formato más legible al tutorial que muy amablemente nos compartes.

1
2448Puntos

Opino que le falta edición, no es tan legible de esta manera.