¿Qué hay más allá de la linealidad?
Clase 16 de 18 • Curso de Regresión Lineal con Python y scikit-learn
Contenido del curso
Eduardo Carrillo
Víctor Alejandro Regueira Romero
Gerardo Mayel Fernández Alamilla
Augusto Mas
Juan R. Vergara M.
Gerardo Mayel Fernández Alamilla
Cristian Enrique Cuevas Mercado
Andrés Fernández
Gerardo Mayel Fernández Alamilla
Rafael Rivera
Alberto Gonzalez
Antonio Demarco Bonino
Mauricio Combariza
Diego Moreno Gallón
Ricardo Félix Díaz López
Matías Collado
Andres felipe Rojas parra
Mauricio Escobar
Dick Saide Suárez Blanco
Víctor Alejandro Regueira Romero
Joel Orellana
Diego Alejandro Torreblanca Cordova
Anthony Stive Tomasto Montañez
Pedro Alvarado Garcia
Luis Francisco Rascón Carrasco
Bryan Castano
Mario Alexander Vargas Celis
sería excelente un curso avanzado de machine learning
¡Ya lo hay! La escuela de Data Science e Inteligencia Artificial tiene un montón de cursos avanzados.
aquí hay algunos, también hay otros muy buenos que aunque son más antiguos son muy completos, en el buscador de platzi hay varios recursos más
https://platzi.com/cursos/scikitlearn/ https://platzi.com/cursos/laboratorio-machine-learning-prod/ https://platzi.com/cursos/ml-ops/ https://platzi.com/cursos/regresion-logistica/ https://platzi.com/cursos/clustering/
Si por favor un curso avanzado de Machine Learning!
😅
aquí hay algunos, también hay otros muy buenos que aunque son más antiguos son muy completos, en el buscador de platzi hay varios recursos más
https://platzi.com/cursos/scikitlearn/ https://platzi.com/cursos/laboratorio-machine-learning-prod/ https://platzi.com/cursos/ml-ops/ https://platzi.com/cursos/regresion-logistica/ https://platzi.com/cursos/clustering/
sin duda es necesario un curso avanzado de modelos, pero rescatando la teoría Estadística, al fin y al cabo los comando están en la documentación oficial de la librería
Por supuesto que necesitamos más cursos avanzados! Que está bien ampliar los básicos, pero hay que equilibrar y Platzi aún tiene grandes oportunidades en ese sentido!
aquí hay algunos, también hay otros muy buenos que aunque son más antiguos son muy completos, en el buscador de platzi hay varios recursos más
https://platzi.com/cursos/scikitlearn/ https://platzi.com/cursos/laboratorio-machine-learning-prod/ https://platzi.com/cursos/ml-ops/ https://platzi.com/cursos/regresion-logistica/ https://platzi.com/cursos/clustering/
Claro que necesitamos mas cursos avanzados, me uno a la petición.
Acá estoy yo también! Desde Portugal me uno al pedido!
Por supuesto que todos nos quedamos esperando ese curso avanzado de ML. De mientras dejo estos conceptos para que todos los que quieran los estudien con un buen detenimiento:
Yo lo que veo es que antes de tener cursos más abanzados, seria mejor profundizar en las bases. Se dejan muchas cosas para que se hagan de forma mecanica sin una base real de por que se debe hacer de una forma u otra.
También existe la aplicación de transformaciones de kernel para seguir usando modelos lineales. Con la idea de los kernels se puede explicar de manera muy bonita lo que es una red neuronal. Les recomiendo el libro "deep learning book" de ian goodfellow.
Este es uno de los cursos mas top que he tomado en plataforma de Platzi, seria genial que pudieran hacer un curso de machine learning avanzado.
Entonces es de muy bajo nivel la información de platzi.
esos temas de curso "avanzado" deberían estar en el curso básico son esenciales para que uno pueda tener una comprensión completa detrás de lo que pasa en el código...
Me uno a la petición para un curso avanzado! Sin duda lo tomaría
😎----->Análisis de regresión multivariable<---- Todo este tiempo hemos aprendido la manera en la que se manejan los modelos de regresion lineal, mas cuando no se tiene un modelo asi, hay que acudir a los Modelos Polinomiales. Donde ya no es solo variables simples como x1 o x2 sino, tamb con variables con exponentes. Haciendo asi que las lineas sean curvas (en forma de ondas). Sin embargo, con estas graficas no solo se puede llegar a predecir un modelo, sino que en algunos casos su precision llega a ser incluso mejor que la de un modelo de regresion lineal. Ya qu edebido a la variaza que estos modelos tienen, llegan a cubrir mucho mejor la varianza que hay en los resultados. A este tipo de modelos se le conoce como de varianza, y a los tradicionales que hemos visto en este curso se les llama de sesgo.
σ Despues, Luis explica que al usar machine learnig, buscamos usar modelos de regularizacion para reducir el sesgo y varianza que tenga nuestro modelo. Lo que se hace, entonces, es reducir la vairanza que tenga un modelo, aunque esto aumente su sesgo, ya que es aceptable la inperfeccion en un sesgo.
σ Conitnuando, la manera en la que se agrega un modelo de regularizacion, es a traves de poner una penalizacion
Me encanta que siempre nos permitan conocer que más herramientas nos sirven a futuro.
Ciertamente la Regresión lineal es indispensable, pero conocer la mayoría mejora nuestro catálogo de modelos.
para ser un curso introductorio, esta super bueno!!!
Con respecto a lo que mencionas, sería útil un curso más avanzado del tema. Recién estuve desarrollando un modelo con regresión multivariable para estimar las métricas de un problema pero los resultados son muy "parejos" y suena buena la propuesta de regularización y uso de polinomios, hubiera sido bueno tener ejemplos prácticos de eso
Claro que se necesitaría mas cursos como estos, donde expliquen la teoría de estadística y la aplicación con machine learning, como: Regresión Logística , Árbol de decisión , etc. Por otro lado, me gusto mucho este curso.
Sin duda es lo que le falta a platzi para ser aún mejor, cursos avanzados y de larga duración.
Últimamente los cursos son muy básicos y su duración es muy baja. Así que abogo por cursos avanzados y más largos.
Si, por su puesto me gustaría ver mas curso avanzados sobre machine learning y toda una escuela si es posible
Hola Chicos, esto para Reflexionar.
IMPORTANT!
Vamos a explorar juntos la Ecuación de Costo y la Geometría (círculo vs. rombo). proque su geometria deice mucho sobre Regularizacion l1 vs l2.
El Escenario de Optimización :
Como mencionamos, la regresión regularizada busca el conjunto de coeficientes ($\beta$) que minimice esta fórmula:
$$\min_{\beta} \left[ \text{MSE}(\beta) + \lambda \times \text{Penalización}(\beta) \right]$$
alpha): Es la fuerza de la penalización.Para simplificar la visualización geométrica, podemos reescribir la minimización como un problema de optimización con restricciones (constrained optimization).
En lugar de minimizar el costo total, buscamos los coeficientes $\beta$ que minimizan el $\text{MSE}$, sujeto a una restricción sobre la suma de los coeficientes:
Aquí, $c$ es un valor que está inversamente relacionado con $\lambda$ (un $\lambda$ más grande implica un $c$ más pequeño).
La Intuición Geométrica (El Porqué del Cero)
En un gráfico donde los ejes son los coeficientes del modelo ($\beta_1, \beta_2$), la solución óptima es el punto donde la curva del error (MSE) toca por primera vez la región de restricción (la penalización).
1. La Región de Restricción L2 (Ridge) ⚪
La restricción $\sum_{j=1}^{p} \beta_{j}^{2} \le c$ define una región circular (o una esfera/hiperesfera en más dimensiones).
2. La Región de Restricción L1 (Lasso) ♦️
La restricción Sumatoria de j =1 hasta p, ||beta|| < c ,define una región en forma de diamante o rombo.
El área de menor error (las líneas de contorno elípticas del MSE) es mucho más probable que toque primero una de estas esquinas del rombo que cualquier otro punto en su borde. Al tocar la esquina, la solución se establece con el coeficiente correspondiente a cero, realizando la selección de características.
¿qué p asaría si el valor de lambda fuera cero ($lambda = 0$)? ¿Cómo se verían en el gráfico la región de restricción L1 o L2?
RTA: Si lambda (λ) fuera 0, la penalización por regularización desaparecería. En el gráfico, las regiones de restricción L1 o L2 (diamante o círculo) se expandirían infinitamente, dejando que el modelo encuentre los coeficientes que minimicen solo el error de mínimos cuadrados sin ninguna restricción.
Cuando $\lambda = 0$, la fuerza de la restricción desaparece, y la región de restricción L1 o L2 se vuelve infinita. La solución, en ambos casos, recae en el centro de las elipses de error del MSE. Esto es, de hecho, la solución exacta de la Regresión por Mínimos Cuadrados Ordinarios (OLS), sin regularización.
a Geometría en Acción: Rombo vs. Círculo
La comprensión de la geometría es clave. Enfocándonos en el L1 (el rombo ♦️) y su habilidad para anular coeficientes:
El Impacto de las Esquinas
La naturaleza convexa de las elipses de error (MSE) hace que sea mucho más probable que el punto óptimo de contacto ocurra en una de estas esquinas en lugar de en el medio de un borde.
Piensa en esto: si estás buscando el punto de menor error y la restricción te obliga a elegir un punto dentro o sobre el rombo, el lugar donde el error es mínimo es muy a menudo una esquina, lo que automáticamente implica que el coeficiente en ese eje se ha anulado. Esta anulación es lo que llamamos modelo disperso (sparse model) y es el mecanismo de selección de características.
La regresión lineal simple puede sobreajustarse (overfitting) si hay ruido o muchas variables: el modelo se ajusta demasiado a los datos de entrenamiento y falla en nuevos datos. La regularización añade una "penalización" a los coeficientes grandes para simplificar el modelo y evitar overfitting.
5. Regresión Ridge (L2 Regularization)
Regresión Lasso (L1 Regularization)
L1 vs L2: Comparación
Es importante la vision geometrica para entneder el mecanisco de cada una l1 vs l2, y su efecto sobre los coeficientes betas.
Más allá de la linealidad en los modelos de regresión, existen métodos que permiten capturar relaciones más complejas y no lineales entre las variables. Aquí te explico las principales alternativas y conceptos clave:
🔹 1. Regresión Polinómica
from sklearn.preprocessing import PolynomialFeatures from sklearn.linear_model import LinearRegression
poly = PolynomialFeatures(degree=2) X_poly = poly.fit_transform(X) model = LinearRegression().fit(X_poly, y)
🔹 2. Modelos No Paramétricos
🔹 3. Regresión con Splines
🔹 4. Modelos Basados en Kernels
🔹 5. Redes Neuronales
🔹 6. Transformaciones de Variables
📌 En resumen:
Cuando la relación entre variables no es lineal, puedes: