Fundamentos de regresión logística
¿Qué es la regresión logística?
Tu primera clasificación con regresión logística
¿Cuándo usar regresión logística?
Fórmula de regresión logística
Regresión logística binomial
Preparando los datos
Análisis de correlación y escalabilidad de los datos
Análisis exploratorio de datos
Entrenamiento con regresión logística binomial
Evaluando el modelo (MLE)
Análisis de resultados de regresión logística
Regularizers
Regresión logística multinomial
Cómo funciona la regresión logística multiclase
Carga y preprocesamiento de datos multiclase
Análisis exploratorio y escalamiento de datos multiclase
Entrenamiento y evaluación de regresión logística multiclase
Conclusiones
Proyecto final y siguientes pasos
Comparte tu proyecto de regresión logística y certifícate
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Aportes 15
Preguntas 0
Los “odds” (en español, “cuotas” o “probabilidades”) son una forma de expresar la probabilidad de que ocurra un evento. En particular, los “odds” representan la relación entre la probabilidad de que ocurra un evento y la probabilidad de que no ocurra.
Por ejemplo, si la probabilidad de que un equipo de fútbol gane un partido es del 60%, entonces la probabilidad de que pierda es del 40%. En términos de “odds”, la probabilidad de ganar se puede expresar como 3 a 2, lo que significa que por cada 2 veces que pierde el equipo, gana 3 veces. De manera similar, la probabilidad de perder se puede expresar como 2 a 3, lo que significa que por cada 3 veces que gana el equipo, pierde 2 veces.
Los “odds” se utilizan comúnmente en las apuestas y en los juegos de azar, donde se usan para determinar las ganancias potenciales de una apuesta. En la estadística, los “odds” se utilizan en la regresión logística para modelar la relación entre las variables independientes y la variable dependiente binaria.
x es la variable independiente.
Graficar la función sigmoide
import random
from math import exp
import matplotlib.pyplot as plt
def sigmoid(x):
return ( 1 ) / ( 1 + exp( -x ) )
def main():
x = []
y = []
for _ in range(200):
num = random.randint(-10, 10)
x.append(num)
y.append(sigmoid(num))
plt.plot(x, y, 'bo')
if __name__ == "__main__":
main()
x = np.arange(-10, 10, 0.5)
# y = 1/(1+np.exp(-x))
from scipy.special import expit
y = expit(x)
fig1=px.line(x=x, y=y)
fig1.update_xaxes(showgrid=True, gridwidth=1, gridcolor='red', range=[int(x.min()), int(x.max())])
fig1.update_yaxes(showgrid=True, gridwidth=1, gridcolor='red',
scaleanchor="y",
scaleratio=1,
)
fig1.show()
Justo esta descomposición le hizo falta al curso de Regresión Lineal.
…
Me duele el cerebro, pero voy entendiendo de a poco. 🦾
def sigmoid(x):
return 1/(1+np.exp(-x))
num_samples = 100
x = np.linspace(-5, 5, num_samples)
y = sigmoid(x)
# plot
plt.plot(x, y)
Esta clase ha estado muy interesante 📝
Aquí que pasa cuando pones un signo mal!
¡Qué buena explicación! Solo quiero aportar que mientras el odd ratio sea mayor a 1 es mejor y si es menor a 1 es peor
Crear la función:
import numpy as np
def sigmoid(z):
return 1.0 / (1.0 + np.exp(-z))
Gráfica de la función:
import matplotlib.pyplot as plt
import seaborn as sns
# Generar valores de x
x = np.linspace(-10, 10, num=1000)
# Calcular los valores de la función sigmoide en x
y = sigmoid(x)
# Graficar la función sigmoide utilizando Seaborn
sns.set_style("whitegrid")
sns.lineplot(x=x, y=y)
plt.title("Función sigmoide")
plt.xlabel("x")
plt.ylabel("y")
plt.show()
x = np.random.randn(30)
y = 1/(1+np.exp(-x))
plt.plot(x, y, 'o');
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?
o inicia sesión.