Escribí un tutorial sobre el modelo de regresión lineal. Puedes encontrar el artículo acá: https://platzi.com/tutoriales/1766-regresion-python/11159-de-donde-viene-el-algoritmo-de-regresion-lineal/
Introducción a machine learning
Introducción a machine learning
Qué es machine learning y su historia
Framework de ciencia de datos: herramientas para machine learning
Tipos de modelos de machine learning
Reto: procesando un dataset
Algoritmos simples de machine learning
La “receta” para aplicar algoritmos de machine learning
Regresión lineal
Regresión logística
Árboles de decisión
Algoritmos de aprendizaje no supervisado
Reto: explora diferentes ejemplos de modelos y qué pueden hacer
Deep learning
Cómo funcionan las redes neuronales
Cómo mejorar las predicciones de redes neuronales
Cómo es el entrenamiento de las redes neuronales
Conclusiones
Cómo profundizar en machine learning y deep learning
Qué más aprender de inteligencia artificial
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
La regresión lineal nos permite predecir un número basándonos en las características de un conjunto de datos. Imagina que dibujas una línea que conecta las características con el objetivo de salida. Este modelo puede identificar relaciones positivas: cuando aumenta el valor de X, también lo hace Y. O relaciones negativas: a medida que X crece, Y disminuye. Sin embargo, la regresión lineal puede no ser adecuada para datos complejos. A continuación, exploraremos en profundidad los conceptos clave de este enfoque.
El proceso de decisión en regresión lineal se centra en los parámetros: pesos y sesgos. Estos parámetros ayudan a determinar cómo cada característica de entrada influye en el objetivo de salida. Puedes imaginar los pesos como una hipótesis que mide la relación entre la característica de entrada y el objetivo de salida "Y".
La función de coste mide qué tan bien predice el modelo la salida correcta. Comparando los resultados predichos con los reales del conjunto de entrenamiento, tratamos de minimizar la diferencia entre ambos. En otras palabras, buscamos acortar esas líneas verticales entre los puntos de datos reales y nuestra línea de predicción.
La regla de actualización ajusta los valores de los pesos y sesgos para minimizar dicha diferencia. Utiliza técnicas de optimización numérica para encontrar la línea que mejor se ajuste a los datos. De esta forma, se optimiza el modelo para predecir con mayor exactitud.
La eficiencia de un modelo de regresión lineal se evalúa usando métricas como el error cuadrático medio o "R cuadrado". Estas métricas indican el grado de correlación entre las variables:
Para optimizar un modelo de regresión lineal, se deben seguir tres pasos:
No siempre. Si bien es efectiva para datasets sencillos y con relaciones lineales claras, se puede quedar corta con datos más complejos. En la próxima lección exploraremos la regresión logística, una técnica que ayuda a clasificar y etiquetar datos, ofreciendo así una perspectiva diferente para enfrentar otros tipos de problemas de predicción.
¡Continúa aprendiendo y mejorando tus habilidades en machine learning! Con cada lección dominas nuevas herramientas para abordar mejor tus desafíos analíticos.
Aportes 9
Preguntas 1
Escribí un tutorial sobre el modelo de regresión lineal. Puedes encontrar el artículo acá: https://platzi.com/tutoriales/1766-regresion-python/11159-de-donde-viene-el-algoritmo-de-regresion-lineal/
different parameters change what we think of a relation between input features (X) and the output target (y_pred).
y{pred}=w_1x+w_0_
w_1= a change in “x” means a change in "y"
w_0= the value of “y” if “x” is 0
The cost (E) is the difference between the target value (y_i) and our line predicted value (y_pred)
j\left(w,:w_0\right)=\frac{1}{N}\sum {i=1}^N:\left(y_i-y{i:pred}\right)^2
We want to minimize the distance (y_i pred) above each point on training data
We change w_0 and w_1 'til find a smaller distance sum is found
_update rule = min J(w_0, w_1) _
pd: i want to add the screenshot, but i don’t know why doesn’t let me, it pop up an error:
Impecable. Que gran profe. Ojala tenga mas cursos en la plataforma.
Me agrada este concepto de regresion lineal. Ya quiero conocer y aprender aplicarlo y desarrollarlo con scikit-learn.
from sklearn.linear_model import LinearRegression
import numpy as np
# Datos de ejemplo
X = np.array([[1], [2], [3], [4], [5]]) # Variables independientes
y = np.array([2, 4, 6, 8, 10]) # Variable dependiente
# Crear el modelo de regresión lineal
model = LinearRegression()
# Ajustar el modelo a los datos
model.fit(X, y)
# Realizar predicciones
X_new = np.array([[6], [7]]) # Nuevos datos para predecir
predictions = model.predict(X_new)
print("Coeficientes:", model.coef_) # Coeficientes de las variables independientes
print("Intercepto:", model.intercept_) # Término de intercepción
print("Predicciones:", predictions) # Predicciones para los nuevos datos
from sklearn.linear_model import LinearRegression
# Datos de ejemplo
X = [[1], [2], [3], [4], [5]] # Variables independientes
y = [2, 4, 6, 8, 10] # Variable dependiente
# Crear el modelo de regresión lineal
model = LinearRegression()
# Ajustar el modelo a los datos
model.fit(X, y)
# Obtener los parámetros estimados
intercept = model.intercept_ # Término de intercepción
coefficients = model.coef_ # Coeficientes de las variables independientes
print("Término de intercepción:", intercept)
print("Coeficientes:", coefficients)
MSE = (1/n) * sum((y - y_pred)^2)
import numpy as np
def mean_squared_error(y_true, y_pred):
n = len(y_true)
mse = np.sum((y_true - y_pred) ** 2) / n
return mse
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?